Hinweis: Die Projektbeschreibung hier spiegelt den Stand am Ende des Hackathons wieder. Aktuelle Informationen finden sie hier: https://platform.projecttogether.org/initiative/T8w5QhsEnNWGvgJq4WFN9MR4hMJ2

Problembeschreibung

Warum habt Ihr Euch für diese Herausforderung entschieden?

Genauso wie Corona der Grundstein dieses Hackathon war, hat die Pandemie allen Projektbeteiligten die Mängel, insbesondere im sozialen Miteinander, unseres Bildungssystems nochmals verdeutlicht. Für Kinder und Jugendliche, die Hilfe in einer Krise oder bei Misshandlung benötigen, hat die Pandemie-Situation den Weg zu Lotsen und persönlichen Ansprechpartnern in Kinder-, Jugend- und Bildungseinrichtungen um ein Vielfaches erschwert. Gegen diese Ungerechtigkeit wollen wir ein Tool entwickeln, um schnelle Hilfestellung zu ermöglichen, daher verorten wir unser Projekt im Themengebiet 6: soziale Gerechtigkeit.

Aus dieser Motivation heraus war klar, dass wir denjenigen eine Hilfestellung bieten möchten, die aktuell weder von Lehrern noch von Jugendämtern erreicht werden, aber akut gefährdet sind. Aber wie können wir helfen, dass Kinder in Not und ohne Aufklärung über Hilfsmöglichkeiten schnell an Kontaktdaten kommt?

Ohne den persönlichen Kontakt ist der Fürsorgepflicht gegenüber den Schülerinnen nicht nachzukommen, was auch für das Lehrpersonal eine erhebliche Belastung darstellt. Kann die Schule in „normalen Zeiten” durch das pädagogische Personal helfen und sogar einen Schutzraum darstellen, fällt dieser aktuell weg. Mit unserem Chatbot wollten wir nicht nur in Zeiten von Corona eine kinderfreundliche Informationsquelle bieten, sondern auch darüber hinaus. Denn ein Chatbot bietet auch die Möglichkeit, Kinder und Jugendliche zu erreichen, die sich vielleicht nicht trauen einem Erwachsenen von Angesicht zu Angesicht ihre Probleme zu erzählen, insbesondere weil sie sich unsicher sein können, ob ihr Problem die entsprechende Relevanz hat. Dabei gilt die Anahme, dass die Vorstellung unseres Angebots (Chatbot) durch die Lehrerin im Unterricht Kinder darin bestärkt, sich ggf. Hilfe zu suchen oder die Hürde für die Kontaktaufnahme senkt.

Nach unserer pädagogischen Erfahrung ist ein wichtiger Aspekt von schulischem Misserfolg bei Kindern ihren schwierigen Lebensbedingungen zuhause zuzuschreiben - diese können im Lehreralltag auch unentdeckt bleiben. In den letzten Jahren sind immer wieder Fälle von schwerem Kindesmissbrauch, Vernachlässigungen, Mobbing usw. bekannt geworden, die es Kindern erschweren, ihre Chancen zu ergreifen und ihre Potentiale zu entfalten (Destatis, 2019).

Was ist aus Eurer Sicht das größte Problem, das es hier zu lösen gibt?

In Zeiten von Corona ist das größte Problem sicherlich die Erreichbarkeit der Kinder in Not. Die mit der Quarantäne einhergehende Abschottung bietet keine Alltagssituation und Struktur, in denen außerhalb des Haushalts nach Hilfe gefragt werden kann oder dem Kind von einem Außenstehenden Hilfe angeboten werden kann. Ohnehin schwierige Situationen verschärfen sich, ohne dass es ein Erwachsener wahrnimmt.

Abschottung spielt aber auch ohne Corona eine erhebliche Rolle. Viele Kinder schaffen es, nach außen den Schein zu wahren, obwohl sie innerlich leiden. Wie kann man also Kindern helfen, die nicht nach Hilfe fragen? Wie kann die Schule Kinder in Not darin bestärken sich Hilfe zu holen und ihnen zeigen, wie sie an Hilfe kommen? Eigentlich kann dies nur gelingen, wenn der Chatbot der breiten Masse bekannt ist und somit auch Betroffene erreicht.

Zum einen sehen wir ein zu lösendes Problem in der Zusammenführung von Angebot und Nachfrage. Obwohl es auch viele Institutionen gibt, die sich um das Kindeswohl kümmern, mag es für das Kind schwer erscheinen, eine passende Institution zu finden. Die meisten Opfer sind zwischen 6 und 13 Jahre alt (Polizeiliche Kriminaldirektion, 2020). Dabei ist davon auszugehen, dass es Kinder in diesem Alter schwer fällt, entsprechende Institutionen selbstständig im Internet zu finden und auch die Kompetenz und den Mut haben, diese eigenständig zu kontaktieren.. Eine zweites Problem, was besonders bei sexuellem Missbrauch forciert wird, ist, dass sich Kinder oft nicht trauen, eine Hilfsperson zu kontaktieren. Grund dafür ist, dass Kinder sich schämen und ihnen eingeredet wird, selbst Schuld an dem Missbrauch zu sein. Außerdem haben Betroffene in der Regel Angst, Schuld daran zu sein, wenn sich die Eltern trennen. Ein weiterer Grund ist, dass Kindern eingeredet wird, dass das Verhalten des sexuellen Missbrauchs normal ist, obwohl Kinder selbst spüren, dass sie diese Handlungen nicht wollen und etwas nicht stimmt. (Polizeiliche Kriminaldirektion, 2020).

Wer ist von dieser Problemstellung betroffen?

Zunächst einmal Kinder, die akut Hilfe brauchen, aber nicht wissen woher sie diese bekommen sollen oder sich nicht trauen, eine Person zu kontaktieren. Im Jahre 2019 wurden 4.055 Misshandlungen und 15.936 Fälle an sexueller Gewalt gemeldet, wobei davon auszugehen ist, dass die Dunkelziffer noch um ein Vielfaches höher ist (Bundeskriminalamt, 2020).

Dabei spielt die Art des Problems weniger eine Rolle als die Dringlichkeit der Lösung. Es können Kinder sein, die häusliche oder sexuelle Gewalt oder starke Vernachlässigung erfahren, sich in Trauerphasen befinden oder andere Probleme haben, die sich psychisch verorten lassen.

Lösungsbeschreibung

Was ist Euer Lösungsansatz?

Wir möchten einen Chatbot entwickeln, der Kinder und Jugendliche dabei unterstützt, sich in Notsituationen professionelle Hilfe zu suchen. Dabei wird mittels aus der Praxis abgeleiteter Fragen eine Konversation simuliert, in der die Situation und die Bedürfnisse der Betroffenen ermittelt werden. Macht der Nutzer Angaben zu seinem Stand-, bzw. Wohnort, so erhält er am Ende eine Liste mit regionalen Kontaktdaten, ansonsten wird er auf überregionale Organisationen und Institutionen verwiesen.

Der Vorteil von Chatbot-Lösungen ist, dass sie eine empfundene individuelle Beratung leicht für viele Nutzende verfügbar machen. Aufgrund ihrer Ähnlichkeit zur menschlichen Interaktion (Chatten) aus der Lebenswelt der Kinder, werden Chatbots als soziale Artefakte zwischen Mensch und Computer gesehen und dies kann besonders in anonymen Kontexten hilfreich sein. So zeigen beispielsweise Studien, dass ein Gespräch mit einem Chatbot die gleichen positiven psychologischen Effekte haben kann, wie ein Gespräch mit einem Menschen (Ho et al., 2018). Für Erwachsene als Nutzergruppe wurde bereits gezeigt, dass Chatbots gerade in Bereichen präferiert werden, in denen die Interaktion mit anderen Menschen unangenehm ist. Hierbei handelt es sich beispielsweise um unangenehme Themen wie Sexualität, Intimkrankheiten, Depressionen oder ungesunde Gewohnheiten. Im Vergleich zur Mensch-Mensch-Interaktion haben Menschen in dem Gespräch mit Chatbots nicht das Gefühl verurteilt zu werden und äußern deshalb auch sozial unerwünschte Themen (Sundar & Li, 2018; Fitzpatrick et al., 2017).

Erste Studien mit Kinder und Chatbots zeigen außerdem, dass Kinder die Interaktion mögen, weil Chatbot Informationen nicht weitergeben. So können Kinder dem Chatbot leichter Informationen anvertrauen (Kim et al., 2018). Durch das Versichern von Anonymität kann somit die Hemmschwelle der Informationssuche gesenkt werden, da die Interaktion mit einem Chatbot leichter fällt als mit einem Menschen und zugleich dazu führen kann, dass Kinder schneller Hilfe bekommen. Denn die Zeitspanne zwischen Vorfall und Meldung zu verringern ist ebenfalls eines unserer Ziele. Analog wäre zu testen, ob die gleichen Erkenntnisse auf die Interaktion mit Kindern und Chatbots zu übertragen sind, wobei davon auszugehen ist.

Darüber hinaus ist der Gebrauch eines Chatbots für Kinder intuitiv und dieser stets erreichbar - so wie sie es auch von anderen Chats kennen. Die Kommunikationsform ist angelehnt an Whatsapp, was eine vertrauensvolle Atmosphäre schafft. Darüber hinausgehend ist eine weiterer Vorteil von Chatbots, dass sie zeit- und ortsunabhängig genutzt werden können und Kindern somit sofortige Unterstützung durch Handlungstipps oder Verknüpfung mit einer entsprechenden Kontaktstelle erhalten. Bei unserer Anwendung handelt es sich um eine Webapp, die Kinder und Jugendliche von Handys oder auch beispielsweise von Computern in der Schule nutzen können, ohne dass eine bedrohliche Person davon erfährt. So kann die individuelle Beratung und Unterstützung schnell skaliert und für alle Kinder in Deutschland verfügbar gemacht werden. Im Vergleich zu einer eigenständigen Suche kann garantiert werden, dass Kinder auf seriöse Anbieter stoßen sowie die Suchzeit nach einem passenden Anbieter verkürzt wird.

Von welchen Annahmen geht Ihr bei Eurem Lösungsansatz aus?

Wir gehen davon aus, dass die Mehrheit aller Kinder ab dem Schulalter in irgendeiner Form Zugang zum Internet haben. Sei es durch in der Familie genutzte Geräte oder ein eigenes Handy. Durch Studien ist belegt, dass jedes zweite Kind (54%) der 6- und 7-Jährigen Zugang zu einem Handy haben. Mit 10 Jahren besitzen bereits 75% ein eigenes Handy (Bitkom, 2019).

Weiterhin trauen wir Leseanfängern, lese- und schreibschwachen Schülern, Schülern mit DaZ/DaF oder Schülern mit besonderem oder sonderpädagogischem Förderbedarf eine ausreichende Medienkompetenz zu, den Chatbot zu bedienen. Darüber hinaus nehmen wir an, dass Kinder Vertrauen in einen Chatbot entwickeln und sich deswegen eher trauen sich mit bedrohlichen und unangenehmen Problemen an ihn zu wenden als zu einer fremden Person einer Behörde.

Wer profitiert von dieser Lösung? Wer nutzt diese Lösung?

Von der Lösung profitieren sowohl die Nutzenden als auch die Anbieter von Beratungsleistungen. Nutzende werden schneller mit der entsprechenden Beratungsinstitution verbunden, was zu einer Zeit- und Aufwandsersparnis auf genannten Seite führt. Außerdem führt der niedrigschwellige Kommunikationsansatz dazu, dass mehr Betroffene proaktiv & selbstbestimmt Hilfe suchen.

Nutzende profitieren insofern von der Lösung, als das sie schneller passende Ansprechpartner finden. Als weiterer Vorteil ist die zeits- und ortsunabhängige Nutzung zu nennen. Durch eine anonyme Interaktion ist die Hemmschwelle geringer und so trauen sich mehr Kinder und Jugendliche selbstständig Informationen zu beschaffen.

Welchen Einfluss hat Eure Lösung auf die aktuelle Situation?

Bei anhaltender Isolation wird Betroffenen der Erstkontakt zu Hilfseinrichtungen erleichtert. Kinder und Jugendlichen erhalten somit schneller die richtige Hilfe und trauen sich aufgrund des niedrigschwelligen Angebot eher einen Kontaktversuch zu wagen. So könnten die Anzahlen an Kindeswohlgefährdungen minimiert werden.

Was ist der langfristige Wert Eurer Lösung?

Auch nach Corona wird es Kinder und Jugendliche in Not geben, die nicht wissen wo sie sich Hilfe oder einfach nur Informationen über ihren besonderen Umstände holen können. Langfristig sollte ein Ausbau um weitere Module angedacht werden, sodass nicht nur akute Notsituationen behandelt werden, sondern der Bot als allgemeiner Ansprechpartner fungieren kann, wenn Kinder ihre Probleme nicht mit anderen Menschen besprechen wollen. Dabei ist von einem fortwährenden Nutzen auszugehen, da bestimmte Themen stigmatisiert werden und sie aufgrund von Angst nicht mit anderen Angehörigen besprochen werden.

Wie bewertet Ihr selbst die Umsetzbarkeit und Skalierbarkeit Eurer Lösung? Die technische Umsetzbarkeit sollte keinerlei Probleme darstellen, ebenso wie die Skalierbarkeit. Aktuell basiert die Konversation auf einer einfachen Entscheidungslogik und passiert regelbasiert. Das Design ist einem bestehen Framework entnommen. Allerdings halten wir gute Kooperationspartner, evtl. die Kultusministerien selbst, Jugendämter, Jugendschutz und in jedem Fall die Schulen, für einen Schlüsselfaktor, auch um das Vertrauen der Nutzenden in das Projekt zu stärken und den Bot populär zu machen.

Vorgehen und Fortschritt

Wie ist der Lösungsansatz entstanden?

Durch ihre Erfahrungen im Bereich Mensch-Chatbot-Interaktion in universitären Forschungsprojekten im Bereich Chatbot Einsatz im medizinischen Kontext hatten Anne Diedrich und Julia Woronkow bereits Erfahrungen mit Chatbots. Dabei war ihnen aufgefallen, dass sich Chatbots besonders für den Einsatz in sensiblen Bereichen eignen, also dort, wo es Menschen unangenehm ist mit anderen Menschen zu kommunizieren. Zu Beginn des Hackathons kam ihnen die Idee, dass dies auch theoretisch auf Kinder in bedrohlichen Situationen anzuwenden sei. Deswegen haben sie zum Start des Hackathons ihre Idee in der Themengruppe 6 geteilt.

Schnell haben sich Personen mit technischem Hintergrund gemeldet: Jasmin Menzel-Schreiber (Computerlinguistin) und Julius (Schüler und Programmierer), später auch André Kovac (Experte: freier Frontend-Programmierer). Außerdem waren auch Personen mit pädagogischem Hintergrund von der Idee begeistert: Jessica Holloway (Referendarin an der Grundschule), Sibylle Hildebrandt (Einzelfallhelferin fürs Jugendamt & Psychologin), Luisa Josa (Lesehelferin), Lara Merz (selbstständige Sozial- und Erlebnispädagogin) und Marian Hoischen (Schüler).

Durch Praxiserfahrung mit Kindeswohlgefährdung wie Vernachlässigung oder sexuellem Missbrauch konnte dabei besonders das pädagogische Team die Notwendigkeit und Relevanz eines solchen Angebots erkennen, um Kindern einen digitalen Helfer an die Seite stellen. Des Weiteren konnte durch die Nähe zur Zielgruppe Grundschüler festgestellt werden, wie groß die Technikaffinität von Grundschülerinnen ist und somit eine Nutzung eines Chatbots möglich und mitunter wahrscheinlich ist.

Was waren die wichtigsten Meilensteine während der Hackathon Woche? Themenfindung. Auch wenn “ein Bot, um Kinder an die richtige Adresse zu vermitteln” konkret klingt, gingen die Vorstellungen in verschiedene Richtungen. Ein Bot, der Kindern insbesondere in der Corona-Zeit hilft zu evaluieren, inwiefern die Aufgaben zuhause zufriedenstellend begleitet werden, war ebenso eine Überlegung. Uns auf ein Ziel festzulegen, ging trotzdem überraschend schnell und der konstruktive und achtsame Umgang miteinander hat alle von Anfang an motiviert. Ebenso wie die Bereitschaft von Anne und Julia “ihre” Idee mit uns zu teilen und zuzulassen, dass sie sich in eine andere Richtung entwickelt.

Festlegung der Zielgruppe und Eingrenzung des Umfangs. Nachdem klar war, dass wir uns auf Grundschüler konzentrieren wollen, da diese es altersbedingt schwerer haben sich dem häuslichen Umfeld zu entziehen und oft nur den Klassenlehrer als enge außerhäusliche Bezugsperson haben, zeigten sich schnell auch inhaltliche Fortschritte in der Umsetzung.

Wir werden einen Prototypen haben! Oder auch: Eigenprogrammierung vs. fertige Lösung. Auch wenn wir stark nach dem Prinzip “keep it simple” gearbeitet haben, wurde schnell klar, dass die Optik gerade für die Ansprache von Kindern sehr wichtig ist und deshalb nicht vernachlässigt werden darf. Durch einen Zufalll hat sich uns am Mittwoch noch André Kovac (Frontend-Entwickler und erfahrener Hackathoner) angeschlossen. Dieser hatte in einem anderen Hackathon ebenfalls an einem Chatbot gearbeitet und uns auf ein gut nutzbares Framework verwiesen. Und mit Julius, der mit vollem Herzblut dabei war und sich schnell einfand, wussten wir mittwochs bereits, dass wir einen Prototypen haben werden :-). Zeitgleich erstellte das Pädogogik-Team eine kindgerechte Kommunikation, die wiederholt mit eigenen Kindern oder Nachbarskindern validiert wurde. Zudem zeichnete die Tochter eines Teammitglieds unser Bild für den Bot.

Erste (interne) Präsentation des Prototypen. Die erste greifbare Visualisierung unserer gemeinsamen Idee hat allen Motivation für den Endspurt gemacht. Der Name “Botty” setzte sich im Team unter anderen Namen durch. Es gab erste Instagram Stories mit einem Modelldialogs des Bottys, die von @wirfürschule gerepostet wurden. Fertigstellung der Präsentationsmaterialien. Das Erstellen des Videos, des Berichts und der vielen verschiedenen Kleinigkeiten, die zwischendurch zu erledigen waren, waren teilweise herausfordernd, da die meisten auch Privat- und Arbeitsleben noch unter einen Hut bringen mussten. Zum Ende hin konnten nur noch einige wenige Mitglieder am Arbeitsprozess teilnehmen.

Nichtsdestotrotz haben wir es geschafft und sind unheimlich stolz auf unseren “Botty” Prototypen!

Prototyp

Ursprüngliche Version (ohne Expertenhilfe): https://github.com/AcidBurn429/ChatBot Prototyp (mit Expertenhilfe):https://github.com/AcidBurn429/ChatBot/tree/master/CBot/CBot Code für den Prototyp: https://github.com/AcidBurn429/Botty

Nächste Schritte

Wie testet ihr Eure Annahmen?

Eine unserer Annahmen ist, dass Kinder früher Hilfe suchen, wenn sie von einem anonymen Bot wüssten, den sie selbstständig bedienen können. Zunächst einmal gilt zu evaluieren, ob gefährdete Kinder den Chatbot nutzen würden und ob dies zu einer früheren Wahrnehmung von Hilfeleistungen führt. Hierbei muss auch die Nutzerfreundlichkeit und die kleinschrittige Interaktion beleuchtet werden. Dazu sollte das Projekt mit weiteren, vielfältigen Anlaufstellen für Kindeswohlgefährdungen evaluiert und eventuell überarbeitet werden. Danach sollte in einem Pilotprojekt der Bot durch Lehrpersonal und Programme in mehreren Schulen beworben und danach die Resonanz der Kinder und Jugendlichen analysiert werden. Jeder Kontaktversuch über den Bot ist dabei als positiv zu werten, da er die Zeit bis das Kind Hilfe bekommt, minimieren kann.

Außerdem ist zu evaluieren, inwiefern das eigene Handy, Tablet oder alternativ Computer in der Schule als anonyme Kommunikationsmedium fungieren können. Es gilt zu überprüfen, ob Kinder und Jugendliche ihr Handy ohne Aufsicht nutzen können. Wenn möglich sollte in einem persönlichen Gespräch mit Betroffenen herauskristallisiert werden, was dazu geführt hätte, dass sie schneller Hilfe finden und ob eine Nutzung des Bots eine Option ist.

Des Weiteren müssen wir prüfen, inwiefern der Bot weiter auf die Zielgruppe zugeschnitten werden kann. Ziel ist es dabei, Vertrauen in den Bot zu erhöhen, so dass sich Kinder bereit sind zu öffnen und Informationen zu teilen, die sie anderen Menschen nicht Preisgeben möchten. Dabei sollte Design und Kommunikation genau auf die Zielgruppe zugeschnitten sein, was durch eine Befragung der Nutzenden ermittelt werden kann. Unterschiedliche, jeweils altersgerechte Versionen des Bots könnten hier entwickelt werden.

Was ist aus Eurer Sicht der nächste Schritt in Richtung Umsetzung?

Der nächste Schritt wäre die vollständige Programmierung des Bots unter Zuhilfenahme von Fachkräften aus dem pädagogischen, psychologischen und psychotherapeutischen Bereich.

Dabei sollte der bestehende Bot um alle Situationen der Kindeswohlgefährdung erweitert werden. Außerdem ist zu überdenken, inwieweit ein Entscheidungsbaum die aktuelle Kommunikation basierend auf Regeln verbessern kann. Darüber hinausgehend sollte der Bot am Ende auf eine Datenbank zugreifen und dem Nutzenden die entsprechende Beratungsstelle noch dezidierter vermitteln. Falls angegeben, sollte diese in der Nähe des angegebenen Ortes sein. Auch Kinder, die nicht gut lesen oder schreiben können, sollten den Bot nutzen können, weshalb auch eine auditive Kommunikation möglich sein sollte. Außerdem ist der Bot um eine Funktion der freien Eingabe zu ergänzen, damit auch Kinder abgefangen werden, die sich in den Problemen nicht wiederfinden. Letztendlich sollte ein NLP-Algorithmus integriert werden.

Des Weiteren sollte eine Beta-Testung durch GrundschülerInnen und Lehrkräfte durchgeführt werden, um die Alltagstauglichkeit zu überprüfen und ggf. Änderungen anzupassen.

Was benötigt Ihr für den nächsten Schritt (Ressourcen, Know-How, Budget)?

Ressourcen: Vollzeitstellen für Hauptmitarbeiter zur Weiterentwicklung Know-How: weitere berufserfahrene Backend- und Frontend Entwickler, IT-Spezialisten, KI-Experten, ggf. weitere LehrerInnen & SchulleiterInnen, SchülerInnen und in der Vergangenheit Betroffene als beratende Instanz, Datenschutzexperten, sowie unsere eigenen Kompetenzen Budget: Für Marktforschung & Pilotprojekt (mit SchülerInnen gemeinsam den Bot weiterentwickeln, Studien über Nutzung und Nutzerfreundlichkeit)

Seid ihr als Projektteam selbst an der Umsetzung interessiert? Wenn ja, wer hat welche Rolle in Eurem Team?

Ja, wir sind als Team sehr begeistert von der Idee und sehen eine große gesellschaftliche Relevanz für die Umsetzung, insbesondere für die Kinder, die oft zurück bleiben. Folgende Personen würden gerne mitarbeiten: Jess: Pädagogische Betreuung des Projekts, insbesondere der Interaktion zwischen Bot und Betroffenem, Social Media Julia: Projektmanagement, Marketing, Content-Erstellung, UX-Design, wissenschaftliche Begleitung durch Forschung zu psychologischen Konstrukten & Human-Computer-Interaction, Webdevelopment (Frontend) Anne: UX-Research & Design, Vertrieb & Networking, wissenschaftliche Begleitung durch Forschung zu psychologischen Konstrukten & HCI Lara: Pädagogische Beratung des Teams, Interaktion Betroffene und Bot Sibylle: Psychologische Beratung des Teams, Interaktion Betroffene und Bot Julius: Programmierung des Bots, Back-End Luisa Josa: Interaktion Betroffene und Bot

Quellenverzeichnis

Bitkom (2019). Mit 10 Jahren haben die meisten Kinder ein eigenes Smartphone, abgerufen unter: https://www.bitkom.org/Presse/Presseinformation/Mit-10-Jahren-haben-die-meisten- Kinder-ein-eigenes-Smartphone#:~:text=Mehr%20als%20jedes%20zweite%20Kind,Alter%20bereits%20ein%20eigenes%20Ger%C3%A4t (Stand: 12.06.2020). Bundeskriminalamt (2020). Statement zur Polizeilichen Kriminalstatistik (PKS) 2019, abgerufen unter: https://beauftragter-missbrauch.de/presse-service/pressemitteilungen/detail/statement -zur-polizeilichen-kriminalstatistik-pks-2019 (Stand: 12.06.2020). Destatis (2019). Internationaler Tag der Kinderrechte: Fakten zur Situation in Deutschland, abgerufen unter: https://www.destatis.de/DE/Presse/Pressemitteilungen/2019/11/PD19_N010_225.html (Stand: 12.06.2020).

Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): a randomized controlled trial. JMIR mental health, 4(2), e19. Ho, A., Hancock, J., & Miner, A. S. (2018). Psychological, relational, and emotional effects of self-disclosure after conversations with a chatbot. Journal of Communication, 68(4), 712-733. Kim, J., Kim, Y.,; Kim, B., Yun, S., Kim, M., & Lee, J.S S. (2018). Can a Machine Tend to Teenagers’ Emotional Needs? A Study with Conversational Agents. Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems, LBW018. New York: ACM, 1-6. Liu, B., & Sundar, S. S. (2018). Should machines express sympathy and empathy? Experiments with a health advice chatbot. Cyberpsychology, Behavior, and Social Networking, 21(10), 625-636. Polizeiliche Kriminaldirektion (2020). Sexueller Missbrauch von Kinder, abgerufen unter: https://www.polizei-beratung.de/opferinformationen/sexueller-missbrauch-von-kindern/ (Stand: 12.06.2020)

Built With

+ 13 more
Share this project:

Updates