Zum Inhalt

Beeinflussung des politischen Diskurses durch automatisierte Social-Media-Accounts

Symbolbild Chatbot

In der Politik wird immer häufiger über die möglichen Gefahren diskutiert, welche von sogenannten Socialbots ausgehen sollen. Zum Beispiel sagt Konstantin von Notz [No18]: Die Manipulationsversuche demokratischer Willensbildungsprozesse unterlaufen [...] das Vertrauen in unsere Demokratie und das ist für Rechtsstaaten ein massives Problem.

Ob es um bewusst lancierte Falschmeldungen geht, die dann mit Trollarmeen oder Socialbots Meinungsführerschaft vorgaukeln [...]

In dieser Arbeit wird untersucht, inwiefern hinter solchen Aussagen Fakten stecken, um die Frage zu beantworten, ob Socialbots einen nennenswerten und gefährlichen Einfluss auf den politischen Diskurs haben. Um diese Frage zu beantworten, analysieren wir, wozu Socialbots aktuell zumindest theoretisch in der Lage sind. Anschließend analysieren wir, inwiefern Socialbots in der realen Welt Anwendung finden und welche Verfahren eingesetzt werden können, um verschiedene Arten von Socialbots zu detektieren. Diese Arbeit zeigt, dass bewiesenermaßen existierende Socialbots nur ein austauschbares Mittel zum Zweck sind, während die Existenz komplexerer Arten der Socialbots aktuell nicht empirisch belegbar ist.

1. Definitionen

Aufgrund der inflationären Benutzung des Begriffs Socialbot verlieren diese zunehmend an Klarheit. Deshalb bedarf es für die folgende wissenschaftliche Analyse einer Arbeitsdefinition des Begriffs Socialbot. Um diesen zu definieren, bedarf es weiterhin einer Definition des Begriffs Social-Media-Plattform.

1.1 Social-Media-Plattform

Social Media bezeichnet eine Variation von Plattformen mit einer Vielzahl an Kommunikationsmitteln zur gegenseitigen Vernetzung. Im Fokus steht immer der Austausch von Informationen, die entsprechenden Reaktionen und der mögliche Aufbau einer digitalen sozialen Beziehung. Zur Realisierung dieser sozialen Interaktionen greifen die Plattformen auf Medien wie Text, Bild, Audio und Video zurück.
Des Weiteren bieten sie dem Nutzer durch Funktionen wie Kommentare, Bewertungen oder Empfehlungen einen aktiven Bezug auf Inhalte und somit auch Einfluss auf die Verbreitung dieser. Da Social-Media-Plattformen im digitalen Raum agieren, können Nutzer anonym auftreten oder selbstständig über ihre Identität entscheiden. Dieses Paper bezieht sich primär auf die Plattform Twitter. 

1.2 Socialbots

Socialbots bezeichnen wir als Softwareprogramme, die automatisiert Aktionen über Social Media Accounts ausführen. Da diese Definition sehr breit gefasst ist, differenzieren wir zwischen Socialbots ohne die Fähigkeit ihr Verhalten selbstständig zu optimieren (folglich als statische Bots bezeichnet) und Socialbots, die mit Hilfe von beispielsweise Machine Learning arbeiten um eine solche Optimierung vorzunehmen (folglich als dynamische Bots bezeichnet).

1.3 Statische Socialbots

Socialbots, die ihr Verhalten nicht selbstständig und dynamisch optimieren können, definieren wir als Programme, welche ihren Output nicht verändern. Sie erfüllen einfache Aufgaben, welche auch von Menschen erfüllt werden können, zum Beispiel das Retweeten aller Tweets eines bestimmten Users. Diese Socialbots können bei näherer Betrachtung relativ einfach erkannt werden [BF16], da ihr systematisches Verhalten leicht von Menschen unterschieden werden kann.
Im Vordergrund steht bei diesen Bots die möglichst schnelle Verbreitung eines bestimmten Contents oder einer bestimmten Meinung.

1.4 Dynamische Socialbots

Mit dem heutigen Wissen im Bereich des Machine Learnings ist es bereits möglich, scheinbar hochkomplexe Algorithmen zu entwickeln, welche mit zunehmender Trainingszeit „dazu-lernen“. Eine solche Lernstrategie ist auch im Bereich der Socialbots denkbar. Nachfolgend werden deshalb Bots, welche ihr Verhalten verändern und anpassen können, als dynamische Socialbots bezeichnet. Zu dieser Kategorie zählen auch Socialbots, welche unter Anderem selbständig dynamischen Content generieren können.
Durch die Interaktion mit anderen (menschlichen) Usern, sammelt ein solcher Bot Daten, welche zur Verbesserung/Veränderung seines Verhaltens genutzt werden. Durch ihre Lernfähigkeit ist es durchaus denkbar, dass diese Art der Socialbots- mit genügend Trainingszeit, menschliches Verhalten glaubhaft nachahmen und/oder glaubhafte Nachrichten und Content generieren können.

2. Socialbots und Machine Learning

Insbesondere die dynamischen Socialbots könnten von Technologien aus dem Bereich der künstlichen Intelligenz, vorrangig dem Machine Learning (ML), profitieren. Daher stellt sich die Frage, wozu Machine Learning im Bereich des Textverständnisses und der Textkreation in der Lage ist. Diese Teilbereiche werden Natural-language understanding (NLU) und Natural-language generation (NLG) genannt, der Überbegriff für diese Teilbereiche ist Natural-language processing.

2.1 Nützlichkeit für Socialbots

NLG ist für dynamische Bots deshalb von Relevanz, da diese das Ziel haben, ohne menschlichen Input neuen Content zu generieren. Ein idealer dynamischer Bot könnte so eine Konversation mit einem Menschen halten, demnach also den Turing-Test bestehen [Tu50]. Zum Halten einer Konversation muss zuerst der Text des Gegenübers verstanden und anschließend ein menschlich wirkender Text als Antwort formuliert werden. Hierfür könnten NLU und NLG mit ML geeignet sein.

2.2 Natural-language Understanding

Das Verstehen von Texten wird als AI-complete-Problem angesehen [Ya13], gehört also zu den schwierigsten Problemen im Bereich der künstlichen Intelligenz. AI-complete-Probleme werden als äquivalent zur Strong AI, also künstlicher Intelligenz, die der des Menschen gleichkommt, gesehen [Sh92]. Im Bereich der NLU gab es in den letzten Jahrzehnten große Fortschritte, sodass NLU bereits heute eingesetzt wird, etwa in der maschinellen Übersetzung. Dennoch gibt es bis heute keine vollständig akkurate Software zum Verstehen natürlicher Sprache [Kh17].

2.3 Natural-language Generation

Das Ziel von NLG ist die vereinfachte Interaktion von Mensch und Maschine. Da der Bedarf für solche Interaktionen in den letzten Jahren durch die fortschreitende Digitalisierung immer größer wurde, hat sich ein großer Markt für NLG entwickelt. So kann etwa das Quelloffene Programm ZombieWriter mit genug Trainingsdaten selbstständig Zeitungsartikel verfassen [Al17].
Das Feld der NLG ist sehr fortgeschritten, sodass schon heute etwa ganze Wikipedia-Artikel automatisch generiert werden können [SB09].

2.4 Stand der Technik

Das Feld des Natural Language Processing hat sich in den letzten Jahren stark weiterentwickelt und wird bereits in vielen Anwendungsbereichen kommerziell eingesetzt. Durch Technologien wie Machine Learning hat das Fachgebiet stark profitiert. Dennoch ist es mit dem heutigen Stand der Technik selbst den besten Chatbots nicht möglich, den Turing-Test zu bestehen, wie Bradeöko; Mladenic [BM19] feststellen. Daher wäre es auch einem dynamischen Socialbot nicht möglich, einen Menschen perfekt zu imitieren.

3. Reale Existenz

3.1 Detektionsmaßnahmen

Um menschliche Social Media Accounts von automatisierten Accounts zu unterscheiden, wurden bisher zahlreiche Verfahren entwickelt. Auch die Social-Media-Plattformen setzen selbst auf bestimmte Verfahren, um automatisierte Accounts zu erkennen und gegebenenfalls zu sperren.

3.2 Automatisierte Detektionsmaßnahmen

Facebook hat weltweit über 2,2 Milliarden aktive monatliche Nutzer. Twitter kommt auf circa 326 Millionen aktive monatliche Nutzer [WHD19]. Um diese große Menge an Accounts effizient auf „Echtheit“ zu untersuchen, werden automatisierte Tools eingesetzt. Eines dieser Verfahren wird am Beispiel des Tools Botometer (ehem. Bot-or-not; vgl. botometer.iuni.iu.edu, abgerufen am 30.12.2019) erklärt. Bei diesem Tool werden die Eigenschaften eines einzelnen zu untersuchenden Accounts analysiert. Hier lassen sich zum Beispiel die benutzen Hashtags, die Zeitpunkte der veröffentlichten Inhalte und Interaktionen, Informationen wie etwa der Username, das Alter des Accounts und die Anzahl der Inhalte nutzen, um die Analyse durchzuführen [Fe16].

Der dahinterstehende Algorithmus wurde mit 15.000 Socialbot Accounts und weiteren 16.000 menschlichen Accounts trainiert. Mit diesem Verfahren wurden zwischenzeitlich Erfolgsraten von circa 95% erreicht. Mittlerweile liegt die Erfolgsquote vermutlich unter diesem Wert, da die ursprünglichen Trainingsdaten inzwischen veraltet sind [Da16].
Ein klarer Vorteil des genannten Verfahrens ist die nahezu vollständige Automatisierung. Es können also mit relativ wenig Zeit und Aufwand auch größere Mengen an Accounts untersucht werden. Jedoch ist diese Methode nicht immer in der Lage, eine korrekte Unterscheidung zwischen Menschen und Maschine zu erzeugen. So kann es passieren, dass „echte“ Accounts, die nur selten benutzt werden, als Bot klassifiziert werden, da sie ein Verhalten darlegen, dass dem eines Bots ähnelt. Diese false positives dürfen also nicht vernachlässigt werden.

3.3 Manuelle Detektionsmaßnahmen

Ein anderer Ansatz, um Accounts in Menschen und Bots aufzuteilen, ist der Einsatz von Menschen. In diesem Crowdsourcing-Verfahren werden Menschen verdächtige Accounts und die dazugehörigen Daten vorgelegt. Sie sollen dann eine Entscheidung treffen, ob dieser Account von einem Bot geführt wird oder nicht. In der Regel fällt es Menschen leicht diese Bots von Menschen zu unterscheiden.
Damit nicht die Entscheidung eines einzelnen Menschen über die „Echtheit“ eines Accounts entscheidet, werden die Ergebnisse von mehreren Menschen zusammen ausgewertet. Ist die Mehrheit für eine Klassifizierung als Bot, so ist diese Aussage mit hoher Wahrscheinlichkeit korrekt. Dieses Mehrheitsverfahren erbringt eine sehr geringe Rate an false positives [Fe16].

Die Vorteile eines manuellen Verfahrens sind die hohe Erfolgsrate und beinahe nicht vorhandenen False Positives [Wa12]. Jedoch ist dies mit einem großen Aufwand verbunden. Es müssen viele Mitarbeiter damit beauftragt werden, dieses Verfahren durchzuführen. Die Anzahl der benötigten Arbeiter skaliert dabei mit der Anzahl der zu untersuchenden Accounts. Es ergibt sich also ein immenser Personalbedarf, um diese Analysen durchführen zu können. Immer häufiger machen sich Nutzer auch Sorgen um die Sicherheit ihrer Daten und ihre eigene Privatsphäre. Da bei der Analyse durch Menschen quasi der gesamte Inhalt des Accounts einsehbar gemacht wird, stellt dies ein weiteres Problem in der immer größer werden Sorge um die Wahrung der Privatsphäre dar.

3.4 Detektion von dynamischen Bots

Die naheliegende Methode zur Detektion dynamischer Bots ist der sog. Turing-Test. Im Turing-Test stellt ein Mensch je einen anderen Menschen und einem Computer über ein schriftliches Interface verschiedene Fragen. Anhand der Antworten muss der Tester anschließend entscheiden, wer von den zwei Antwortenden die Maschine ist. Gelingt es dem Tester nicht, den Computer als solchen zu identifizieren, hat die Maschine den Turing-Test bestanden [Tu50].

Ein ähnliches Verfahren lässt sich auch für die Identifizierung von computergesteuerten Accounts in den sozialen Netzwerken einsetzten. Da jedoch für jeden Test mindestens ein menschlicher Tester gebraucht wird, ist hier ein erheblicher Aufwand nötig, um große Mengen von Accounts zu überprüfen.

3.5 Existenzbeweise

Die genannten Detektionsverfahren zeigen, dass zumindest statische Socialbots relativ zuverlässig von Menschen unterschieden werden können. Mit der Nutzung solcher Verfahren kann demnach geschätzt werden, in welcher Anzahl diese erkennbaren Socialbots in der realen Welt existieren. Vor der US-Präsidentschaftswahl 2016 wurden die Diskussionen auf der Social-Media-Plattform Twitter durch Bessi; Ferrara [BF16] analysiert.

Dazu wurden händisch Hashtags ausgewählt, welche mit den Präsidentschaftskandidaten und den Wahlen generell in Ver-bindung standen. In einem Zeitraum von sechs Tagen wurden ca. 20,7 Mio Tweets erfasst und ausgewertet. Zur Identifikation möglicher Bots wurde das Tool Botometer (ehem. Bot-Or-Not, vgl. botometer.iuni.iu.edu, abgerufen am 30.12.2019) 14 benutzt. Unter den 50.000 aktivsten Accounts in dieser Zeitspanne befanden sich 7.183 Twitter-Accounts, welche vom Botometer als mögliche Bot-Accounts eingestuft wurden. Diese Accounts waren für 18,45% der aufgezeichneten Tweets verantwortlich. Auch die französischen Präsidentschaftswahlen 2017 wurden nach einem ähnlichen Prinzip analysiert [Fe17].

Auch hier wurden Tweets anhand einer vorgefertigten Liste relevanter Hashtags aufgezeichnet. Zusätzlich wurden hier noch sogenannte mentions, also das Nennen anderer User in eigenen Tweets, als Filterkriterium betrachtet. Auch bereits gelöschte Accounts konnten dank veränderter Analysemethoden betrachtet werden. Von rund 99.300 Usern wurden in dieser Diskussion circa 18.300 als Bots eingestuft. Auffällig ist, dass bei beiden Wahlen KandidatInnen des rechtspopulistischen Spektrums angetreten sind. Ein weiterer Angriffspunkt für Socialbots ist die generelle Verbreitung von sogenannte Fake-News.
Eine Studie von Shao et al. [Sh17] zeigt, dass bei der Verbreitung von Fake-News - besonders kurz nach Veröffentlichung - die meisten Accounts, welche solche Artikel verbreiten, Bot-ähnliches Verhalten zeigen. Dabei ist besonders auffällig, dass die Accounts, welche am aktivsten Fake-News verbreiten, auch deutlich wahrscheinlicher von Bots gesteuert werden. Obwohl mit diesen Studien Anhaltspunkte gegeben werden, dass Socialbots in der realen Welt existieren und einen nicht unerheblichen Einfluss haben, kann keine der Studien eine Aussage darüber treffen, ob diese Bots eigenen, glaubwürdigen Content (wie z.B. Tweets) generieren können, oder ob sie lediglich bereits vorhandenen Content verbreiten. Somit können diese Bots nur als statische Bots eingestuft werden.

4. Realer Einfluss

Da die Existenz von Socialbots in großer Anzahl bewiesen ist, bleibt die Frage inwiefern diese Bots einen spürbaren Einfluss auf die Meinungsbildung menschlicher User haben. Generell gibt es zu diesem Thema nur wenige, belastbare Aussagen, da es schwer zu messen ist, inwiefern Socialbots die Meinung einzelner Menschen beeinflussen. In einer Studie von Hagen et al. [HAW17] wurden Personen per Telefonbefragung zu ihrer politischen Einstellung in bestimmten Themen befragt. Es wurde festgestellt, dass die Polarisierung bei Menschen, welche oft Social-Media benutzen, tendenziell größer ist, Meinungen sich also eher an den Extremen des politischen Spektrums ansiedeln. Jedoch wurde auch festgestellt, dass bei Menschen mit höheren Bildungsgraden, die Nutzung von Social-Media tatsächlich den gegenteiligen Effekt zur Folge hat.

Diese Arbeit trifft zwar keine Aussage darüber, ob diese Ergebnisse durch Socialbots begründet sind, jedoch ist es sehr wahrscheinlich, dass regelmäßige Social-Media Nutzer auch regelmäßig mit Socialbots in Kontakt geraten. In einer Arbeit von Mitter et al. [MWS13] wurde der Einfluss durch Socialbots auf die Bildung neuer Kontakte zwischen menschlichen Usern untersucht. Laut dieser Arbeit konnten Socialbots in einem Experiment bis zu ca. 11,51% der neu gebildeten Kontakte herbeiführen. Jedoch wurde auch festgestellt, dass äußere Einflüsse, wie z.B. Offline-Begegnungen verschiedener Menschen, den wohl größten Einfluss auf Kontaktbildung hat.

Diese Arbeit trifft jedoch keine Aussage darüber, ob diese Socialbots auch einen nicht unerheblichen Einfluss auf die Meinungsbildung der betroffenen Personen haben könnten. Zwar lässt sich aus diesen Ergebnissen mutmaßen, dass Socialbots einen Einfluss auf Meinungsbildung ausüben, jedoch lässt sich das keinesfalls empirisch belegen.

4.1 Der Mensch hinter dem Content

Bei der gesamten gesellschaftlichen Debatte um das Thema Socialbots, sind diese lediglich ein Werkzeug. Wichtig ist das Ergründen, warum ein solches Werkzeug eingesetzt wird. Wie bereits in 3.5 beschrieben, werden Bots bei besonders kontroversen Wahlen eingesetzt, bei denen häufig KandidatInnen des rechtspopulistischen bis rechtsextremes Spektrum antreten. Diese fallen häufig durch ihre Ablehnung demokratischer Institutionen, wie etwa der Presse auf [La18].

Dem liegt der in Sich antidemokratische Charakter von Socialbots zugrunde: Sie sind eine Technologie, mit der sich mit wenig Aufwand eine bestimmte Meinung sehr weit streuen lässt. Das zentrale Element einer jeden Demokratie, der offene, demokratische Diskurs, wird somit vollständig oder teilweise automatisiert. Dies kann zur Folge haben, dass eine gesellschaftliche Diskussion überflutet wird mit Meinungen, welche im Zweifelsfall zwar Nischenmeinungen sind, durch die automatisierte Verbreitung allerdings zur Mehrheitsmeinung hochstilisiert werden.
Durch ihren antidemokratischen Charakter werden sie also vorrangig von Kräften eingesetzt, welche ohnehin zu demokratiefeindlichen Praktiken neigen. So kündigte etwa die rechtsnationale Partei „Alternative für Deutschland“ gegenüber dem SPIEGEL an, im Bundestagswahlkampf 2017 Social Bots einzusetzen [SP16]. Jedoch wäre es falsch, die Manipulation sozialer Medien durch antidemokratische Kräfte lediglich Socialbots zuzuschreiben und deren Verbot als Lösung darzustellen. Socialbots automatisieren zwar das Streuen bestimmter Meinungen, machen jedoch nichts, was ein Mensch nicht ebenfalls könnte. So fluten internetaffine rechtsextreme Netzwerke wie „Reconquista Germanica“ regelmäßig Kommentarspalten von Internetbeiträgen oder bestimmte Hashtags mit Hasskommentaren [AR18].

Auch andere Räume im Netz werden von diesen Gruppierungen besetzt. So besetzen über Imageboards wie 4Chan organisierte Rechte die Gaming-Szene, um ihr Gedankengut zu verbreiten [Pa20]. Dies gipfelte darin, dass der antisemitische Attentäter Stephan B. seinen Anschlag auf die Synagoge von Halle vom 9. Oktober 2019 auf Twitch live übertrug, einer Streamingplattform für Videospiele [He19].

5. Fazit

In dieser Arbeit wurde gezeigt, dass zumindest statische Socialbots in großer Anzahl existieren und auf Social-Media-Plattformen agieren. Ob diese Bots einen erheblichen Einfluss auf die Meinungsbildung menschlicher User haben, wurde bisher nicht empirisch bewiesen. Belegbar ist aktuell lediglich die Tatsache, dass statische Socialbots u.A. dazu genutzt werden, um Fake-News zu verbreiten und Präsenz in Diskussionen aller Art zu zeigen. Auch bestimmte Meinungsbilder werden von statischen Socialbots stark vertreten. Da sie keinen eigenständigen Content generieren, sind sie ein Mittel zum Zweck und ihre Aufgaben könnten auch von Menschen übernommen werden.

Im Gegensatz zu menschlichen „Click-Armeen“ können Bots aber kostengünstiger und rund um die Uhr eingesetzt werden, weshalb auch statische Bots eine potenzielle Gefahr darstellen. Die Existenz von dynamischen Socialbots hingegen bleibt weiterhin fragwürdig, da es noch keine Studien gibt, welche belegen können, dass existierende Socialbots eigenständig glaubwürdigen Content generieren, geschweige dem den Turing-Test bestehen können. Ein massenhafter Einsatz von dynamischen Socialbots scheint aktuell unrealistisch, ist jedoch in der Zukunft keinesfalls undenkbar.

 

Quellen

  • [AR18] ARD: Infokrieg mit allen Mitteln./, 13. Dez. 2018,    : www. tagesschau.de/faktenfinder/inland/organisierte-trolle-101.html, Stand: 23. 01. 2020.
  • [BF16] Bessi, A.; Ferrara, E.: Social bots distort the 2016 U.S. Presidential electiononline discussion, Technical Paper, firstmonday, 7. Nov. 2016,    : https: //papers.ssrn.com/sol3/papers.cfm?abstract_id=2982233, Stand: 02. 12. 2019.
  • [BM19] Bradeöko, L.; Mladenic, D.: A Survey of Chabot Systemsthrough a Loebner Prize Competition, Research paper, Artificial Intelligence laboratory, Jozef Stefan Institute, Ljubljana Slovenia, 28. Juni 2019,    : pdfs. semanticscholar.org/9447/1160f13e9771df3199b3684e085729110428. pdf, Stand: 09. 01. 2020.
  • [Da16] Davis, C. A.; Varol, O.; Ferrara, E.; Flammini, A.; Menczer, F.: BotOrNot: A System to Evaluate Social Bots, Technical Paper, Communications of the ACM, 2016,    : dl.acm.org/doi/pdf/10.1145/2872518.2889302, Stand: 03. 01. 2020.
  • [Fe17] Ferrara, E.: Disinformation and Social Bot Operations in the Run Up to the 2017 French Presidential Election, Paper, University of Southern California -Information Sciences Institute, 30. Juni 2017,    : papers.ssrn. com/sol3/papers.cfm?abstract_id=2995809, Stand: 01. 01. 2020.
  • [HAW17] Hagen, L. M.; in der Au, A.-M.; Wieland, M.: Polarisierung im Social Web und der intervenierende Effekt von Bildung: eine Untersuchung zu den Folgen algorithmischer Medien am Beispiel der Zustimmung zu Merkels "Wir schaffen das!" kommunikation @ gesellschaft/18, S. 1–20, 2017,    : www. ssoar.info/ssoar/bitstream/handle/document/51503/ssoar-ketg-2017-Hagen_et_al-Polarisierung_im_Social_Web.pdf?sequence=3& isAllowed=y&lnkname=ssoar-ketg-2017-Hagen_et_al-Polarisierung_ im_Social_Web.pdf, Stand: 06. 01. 2020.
  • [Kh17] Khurana, D.; Koli, A.; Khatter, K.; Singh, S.: Natural Language Processing: State of The Art, Current Trends and Challenges. CoRR abs/1708.05148/, 2017, arXiv: 1708.05148,    : arxiv.org/abs/1708.05148.
  • [MWS13] Mitter, S.; Wagner, C.; Strohmaier, M.: Understanding The Impact Of Socialbot Attacks In Online Social Networks, Paper, Graz University of Technology u.A., 2013,    : arxiv.org/ftp/arxiv/papers/1402/1402.6289.pdf, Stand: 06. 01. 2020.
  • [No18] von Notz (Bündnis 90/Die Grünen), K.: 6. Netzpolitische Soirée: Hacked democracy? Demokratie schützen!, Youtube, 4. Dez. 2018,    : https: //youtu.be/jtmFg5iu15w?t=854, Stand: 30. 12. 2019.
  • [Pa20] Parbel, L.: Wenn Faschisten Faschisten spielen./, 7. Jan. 2020,    : https: //netzpolitik.org/2020/wenn-faschisten-faschisten-spielen/, Stand: 23. 02. 2020.
  • [SB09] Sauper, C.; Barzilay, R.: Automatically Generating Wikipedia Articles:A Structure-Aware Approach, Research paper, 2009,    : people. csail.mit.edu/regina/my_papers/wiki.pdf, Stand: 20. 01. 2020.
  • [Sh92] Shapiro, S. C.: Artificial Intelligence, Book, 1992,    : cse.buffalo. edu/~shapiro/Papers/ai.pdf, Stand: 18. 01. 2020.
  • [Tu50] Turing, A. M.: Computing machinery and intelligence, Research paper, Mind journal, 1. Okt. 1950,    : academic.oup.com/mind/article/LIX/ 236/433/986238, Stand: 09. 01. 2020.
  • [Wa12] Wang, G.; Mohanlal, M.; Wilson, C.; Wang, X.; Metzger, M.; Zheng, H.; Zhao, B. Y.: Social Turing Tests: Crowdsourcing Sybil Detection, Technical Paper, Department of Computer Science der U.C. Santa Barbara u.A., 7. Dez. 2012,    : arxiv.org/abs/1205.3856, Stand: 30. 12. 2019.
  • [WHD19] We are Social; Hootsuite; DataReportal: Die weltweit größten Social Networks nach Anzahl der User, Statista, 1. Jan. 2019,    : de.statista.com statistik/daten/studie/181086/umfrage/die-weltweit-groessten-social-networks-nach-anzahl-der-user/, Stand: 03. 01. 2020.
  • [Ya13] Yampolskiy, R. V.: Turing Test as a Defining Feature of AI-Completeness, Re-search paper, University of Louisville, 2013,    : cecs.louisville. edu/ry/TuringTestasaDefiningFeature04270003.pdf, Stand: 09. 01. 2020.

 

 

<