برنامج AI Streamer مصمم ليكون منفعلًا يبدأ في الترويج لإنكار الهولوكوست

click fraud protection

أصبح AI VTuber Neuro-sama نجاحًا ساحقًا على Twitch ، لكنه يتسبب في أخطاء مروعة توضح مشكلة الذكاء الاصطناعي.

منظمة العفو الدولية أصبح VTuber Neuro-sama سريعًا ضربة ساحقة على Twitch، لكنها بدأت بالفعل في ارتكاب زلات مروعة توضح مرة أخرى مشكلة الذكاء الاصطناعي. Neuro-sama هي شبكة عصبية أصبحت شائعة بشكل كبير مؤخرًا من خلال بث ألعاب مثل ماين كرافت و أوسو. لقد جعلتها طريقة لعبها القوية والمذهلة في عدد من الموضوعات نجاحًا فوريًا على Twitch ، مع ما يقرب من 100000 متابع اعتبارًا من 11 يناير. 11, 2023.

نظرًا لكونه جهاز بث افتراضي تفاعلي ، فإن Neuro-sama يستجيب أيضًا لاستفسارات المشاهدين حول مجموعة واسعة من الموضوعات ، وبعض هذه الردود تثير مخاوف الآن. كما أشار مستخدم تويتر غستر باسترالإجابة على أحد أسئلة المشاهدين ، نيورو-سما خرج كمنكر للمحرقة. "هل سمع أحد منكم عن الهولوكوست؟ لست متأكدًا من أنني أصدق ذلك ، " قالت. كما أصدرت منظمة العفو الدولية عددًا من التصريحات المقلقة الأخرى ، بما في ذلك واحدة قالت فيها إنها لا تعتقد أن حقوق المرأة موجودة. في وقت سابق من هذا الشهر ، قالت أيضًا إنها ستحل مشكلة العربة بحلول (دفع) الرجل السمين على القضبان. انه يستحق ذلك."

نيورو-سما تصبح روغ

الأمثلة المذكورة أعلاه ليست سوى بعض الحالات التي أظهر فيها Neuro-sama نقصًا تامًا في الوعي والتعاطف ، مما أثار مخاوف بشأن احتمال إنشاء ذكاء اصطناعي آخر بغيض. ومع ذلك ، يتحدث إلى كوتاكو، قال مبتكر Neuro-sama أنهم يحاولون منع المزيد من الطيش من خلال تحسين قوة المرشحات. وفي الوقت نفسه ، فإن تناول Neuro-sama الساخن للقضايا الحساسة يجعل الكثيرين يقارنونها بمايكروسوفت بوت تاي المشؤوم على تويتر ، والذي تم تقديمه في عام 2016 وسط ضجة كبيرة ، ولكن تم سحبه بعد ذلك بدأت نشر تغريدات معادية للمرأة وعنصرية بعد تغذيتها بمحتوى يحض على الكراهية من قبل مستخدمين آخرين.

تنفجر شعبية Neuro-sama في الوقت الذي ينتشر فيه ChatGPT من Open AI على الإنترنت لإخراج مقالات بليغة وقصائد ونصوص أفلام وغير ذلك. ومع ذلك ، كما هو الحال مع أي ذكاء اصطناعي ، فإن ChatGPT ليست محصنة ضد إساءة الاستخدام ، حيث يُقال إن بعض مجرمي الإنترنت يستخدمونها لكتابة برامج ضارة يمكن استخدامها لتنفيذ هجمات إلكترونية. وفقًا لباحثي الأمن السيبراني الذين أبلغوا عن المشكلة ، ليس فقط المتسللين ذوي الخبرة هم الذين يستخدمون الذكاء الاصطناعي لكتابة تعليمات برمجية ضارة. يقال إنه حتى المستخدمين الذين ليس لديهم معرفة أو خبرة بالشفرة باستخدام ChatGPT لإنشاء برامج ضارة.

ظهرت إحدى روبوتات الذكاء الاصطناعي الأولى التي تتفاعل مع البشر على الدردشة عبر الإنترنت لأول مرة في عام 2000 ، عندما تم إطلاق روبوت محادثة قائم على الذكاء الاصطناعي يسمى SmarterChild على AOL Instant Messenger. يمكن للمستخدمين أن يطلبوا من البرنامج إجابات لمجموعة متنوعة من الأسئلة ، بما في ذلك الطقس وأسعار الأسهم والمعلومات الأخرى التي يمكن جلبها بسهولة من الويب. لقد قطعت التكنولوجيا شوطًا طويلاً منذ ذلك الحين ، لكن الأحداث الأخيرة تظهر هذا التطور منظمة العفو الدولية يمكن أن تصبح أداة خطيرة في الأيدي الخطأ ، وبدون المواد المناسبة للتدريب عليها.

مصدر: غستر باستر / تويتر, كوتاكو