DrEvil
Erfahrenes Mitglied
Hallo Leute,
ich würde mir gerne ein (kleines) Social-Media-Monitoring-Tool selber bauen. Da wollte ich mir hier etwas Feedback zu meinen Ideen holen.
Ich möchte gerne eine lokale Medienlandschaft mit dem Tool verfolgen, d.h. die Datenmenge ist (relativ) begrenzt (im Vergleich zu den allgemeinen Weiten des Internets).
Ich habe mir als grundsätzlichen Ansatz gedacht, die Inhalte von z.B. Blogs und twitter via der XML-Schnittstellen in regelmäßigen Abständen auszulesen und in eine Datenbank zu schreiben, mit der ich dann beliebig weiter arbeiten kann. Ich dachte mir, dass das evtl. Performance-mäßig besser sein könnte, da ich nicht bei jeder Operation die Daten neu auf den externen Quellen auslesen muss. Es erschien mir ob der begrenzten Datenmenge als Ansatz vertretbar.
Für Blogs und twitter ist mir das Verfahren grundsätzlich klar. Ich frage mich nur, wie man facebook und Foren auslesen können soll... Diese Möglichkeit bieten ja diverse kommerzielle Anbieter, also muss es ja irgendwie gehen...
Was ich jetzt auch bei kommerziellen Anbietern gesehen habe ist, zu erfassen in welchem Kontext ein Stichwort erwähnt wurde (sprich positiv, negativ, neutral). Da muss ich ehrlich sagen, mehr als das geguckt wird, was sonst noch so für Wörter im Umfeld des Stichworts stehen (wie z.B. sch***, Mist, Blödsinn, etc.) und daraus nen Kontext abzuleiten, kann ich mir als Ansatz für diese Funktionalität nicht vorstellen... Habt ihr vielleicht ne Idee?
Nur so am Rande wollte ich mal fragen, womit man eigentlich diese netten Grafiken am besten erstellt, mit denen z.B. die Statistik-Tools in Blogs arbeiten. Sprich Kreis-, Linien- und Balkendiagramme. Ist HTML5 dafür gut geeignet oder wie funktioniert sowas?
Das wären so meine ersten Gedanken, wie gesagt, über euer Feedback würde ich mich freuen.
Viele Grüße Eric
ich würde mir gerne ein (kleines) Social-Media-Monitoring-Tool selber bauen. Da wollte ich mir hier etwas Feedback zu meinen Ideen holen.
Ich möchte gerne eine lokale Medienlandschaft mit dem Tool verfolgen, d.h. die Datenmenge ist (relativ) begrenzt (im Vergleich zu den allgemeinen Weiten des Internets).
Ich habe mir als grundsätzlichen Ansatz gedacht, die Inhalte von z.B. Blogs und twitter via der XML-Schnittstellen in regelmäßigen Abständen auszulesen und in eine Datenbank zu schreiben, mit der ich dann beliebig weiter arbeiten kann. Ich dachte mir, dass das evtl. Performance-mäßig besser sein könnte, da ich nicht bei jeder Operation die Daten neu auf den externen Quellen auslesen muss. Es erschien mir ob der begrenzten Datenmenge als Ansatz vertretbar.
Für Blogs und twitter ist mir das Verfahren grundsätzlich klar. Ich frage mich nur, wie man facebook und Foren auslesen können soll... Diese Möglichkeit bieten ja diverse kommerzielle Anbieter, also muss es ja irgendwie gehen...
Was ich jetzt auch bei kommerziellen Anbietern gesehen habe ist, zu erfassen in welchem Kontext ein Stichwort erwähnt wurde (sprich positiv, negativ, neutral). Da muss ich ehrlich sagen, mehr als das geguckt wird, was sonst noch so für Wörter im Umfeld des Stichworts stehen (wie z.B. sch***, Mist, Blödsinn, etc.) und daraus nen Kontext abzuleiten, kann ich mir als Ansatz für diese Funktionalität nicht vorstellen... Habt ihr vielleicht ne Idee?
Nur so am Rande wollte ich mal fragen, womit man eigentlich diese netten Grafiken am besten erstellt, mit denen z.B. die Statistik-Tools in Blogs arbeiten. Sprich Kreis-, Linien- und Balkendiagramme. Ist HTML5 dafür gut geeignet oder wie funktioniert sowas?
Das wären so meine ersten Gedanken, wie gesagt, über euer Feedback würde ich mich freuen.
Viele Grüße Eric