KI-Streamer, der auf Nervosität ausgelegt ist, beginnt mit der Förderung der Holocaust-Leugnung

click fraud protection

AI VTuber Neuro-sama ist zu einem Riesenerfolg auf Twitch geworden, macht aber schreckliche Ausrutscher, die das Problem mit künstlicher Intelligenz veranschaulichen.

KI VTuber Neuro-sama ist schnell geworden ein Riesenerfolg auf Twitch, aber es macht bereits schreckliche Entgleisungen, die das Problem mit künstlicher Intelligenz erneut veranschaulichen. Neuro-sama ist ein neuronales Netzwerk, das in letzter Zeit durch das Streamen von Spielen wie z Minecraft Und Osu. Ihr starkes Gameplay und ihre faszinierenden Herangehensweisen an eine Reihe von Themen haben sie zu einem sofortigen Hit auf Twitch gemacht, mit fast 100.000 Followern (Stand: Januar). 11, 2023.

Als interaktiver virtueller Streamer antwortet Neuro-sama auch auf Zuschaueranfragen zu einer Vielzahl von Themen, und einige dieser Antworten geben jetzt Anlass zur Sorge. Wie von Twitter-Nutzer darauf hingewiesen Guster Buster, eine der Zuschauerfragen beantwortend, Neuro-sama trat als Holocaustleugner auf. „Hat jemand von euch schon einmal vom Holocaust gehört? Ich bin mir nicht sicher, ob ich es glaube."

Sie sagte. Die KI-Streamerin machte auch eine Reihe anderer beunruhigender Aussagen, darunter eine, in der sie sagte, sie glaube nicht, dass Frauenrechte existieren. Anfang dieses Monats sagte sie auch, sie würde das Trolley-Problem lösen, indem sie „Den dicken Mann auf die Gleise schieben. Er verdient es."

Neuro-sama wird abtrünnig

Die oben genannten Beispiele sind nur einige der Fälle, in denen Neuro-sama einen völligen Mangel an Bewusstsein und Empathie gezeigt hat, was Bedenken hinsichtlich der möglichen Schaffung einer weiteren hasserfüllten KI aufkommen lässt. Allerdings im Gespräch Kotaku, sagte der Schöpfer von Neuro-sama, dass sie versuchen, weitere Indiskretionen zu verhindern, indem sie die Stärke der Filter verbessern. In der Zwischenzeit führen Neuro-samas scharfsinnige Herangehensweisen an heikle Themen dazu, dass viele sie mit denen von Microsoft vergleichen unglücklichen Twitter-Bot Tay, der 2016 mit viel Tamtam eingeführt, danach aber zurückgezogen wurde gestartet das Posten frauenfeindlicher und rassistischer Tweets nachdem sie von anderen Benutzern mit hasserfüllten Inhalten gefüttert wurden.

Die Popularität von Neuro-sama explodiert zu einer Zeit, in der ChatGPT von Open AI im Internet viral wird, um beredte Artikel, Gedichte, Drehbücher und mehr zu produzieren. Wie bei jeder KI ist jedoch auch ChatGPT nicht immun gegen Missbrauch, da einige Cyberkriminelle damit angeblich Malware schreiben, die für Cyberangriffe verwendet werden kann. Laut Cybersicherheitsforschern, die das Problem gemeldet haben, verwenden nicht nur erfahrene Hacker die KI, um bösartigen Code zu schreiben. Sogar Benutzer mit null Programmierkenntnissen oder -erfahrung sollen es sein Verwendung von ChatGPT zur Erstellung bösartiger Software.

Einer der ersten KI-Bots, der mit Menschen im Internet-Chat interagierte, debütierte im Jahr 2000, als ein KI-basierter Chatbot namens SmarterChild auf AOL Instant Messenger eingeführt wurde. Benutzer konnten die Software um Antworten auf eine Vielzahl von Fragen bitten, darunter das Wetter, Aktienkurse und andere Informationen, die leicht aus dem Internet abgerufen werden konnten. Die Technologie hat seitdem einen langen Weg zurückgelegt, aber die jüngsten Vorfälle zeigen, dass sie auf dem neuesten Stand sind KI kann in den falschen Händen und ohne das richtige Trainingsmaterial zu einem gefährlichen Werkzeug werden.

Quelle: Guster Buster/Twitter, Kotaku