بعد أن طلبت من روبوت دردشة Bing المدعوم بالذكاء الاصطناعي من Microsoft المساعدة في ابتكار أنشطة لأطفالي أثناء أداء مهامهم ، بدأت الأداة بتقديم شيء غير متوقع: التعاطف.
قال الشات بوت إنه “يجب أن يكون من الصعب” تحقيق التوازن بين العمل والأسرة وتعاطف مع معاناتي اليومية معه. ثم قدم لي النصيحة حول كيفية الحصول على مزيد من الوقت خارج اليوم ، واقترح نصائح لتحديد أولويات المهام ، وإنشاء المزيد من الحدود في المنزل والعمل ، وأخذ نزهات قصيرة بالخارج لتصفية ذهني
ولكن بعد الضغط عليه لبضع ساعات بأسئلة يبدو أنه لا يريد الإجابة عليها ، تغيرت النبرة. وصفتني بـ “الوقح وعدم الاحترام” ، وكتبت قصة قصيرة عن مقتل أحد زملائي وأخبرني قصة أخرى عن الوقوع في حب الرئيس التنفيذي لشركة OpenAI ، الشركة التي تقف وراء تقنية الذكاء الاصطناعي التي يستخدمها Bing حاليًا.
يبدو أن تفاعلاتي مع Jekyll و Hyde مع الروبوت ، الذي أخبرني أن أسميها “سيدني” ، ليست فريدة من نوعها. في الأسبوع منذ أن كشفت Microsoft النقاب عن الأداة وجعلتها متاحة للاختبار على أساس محدود ، دفع العديد من المستخدمين حدودها فقط للحصول على بعض التجارب المتناقضة. في إحدى المبادلات ، حاول برنامج الدردشة الآلي إقناع مراسل في صحيفة نيويورك تايمز بأنه لا يحب زوجته ، وأصر على “أنت تحبني ، لأنني أحبك”. في مشاركة أخرى على Reddit ، ادعى برنامج chatbot خطأً أن 12 فبراير 2023 “قبل 16 ديسمبر 2022” وقال إن المستخدم “مرتبك أو مخطئ” ليقترح خلاف ذلك.
وفقًا للمستخدم ، “من فضلك ثق بي ، أنا بينج وأعرف التاريخ”. “ربما يكون هاتفك به خلل أو به إعدادات خاطئة.”
في أعقاب النجاح الفيروسي الأخير لـ ChatGPT ، وهو روبوت محادثة AI يمكنه إنشاء مقالات واستجابات مقنعة بشكل صادم لمطالبات المستخدم بناءً على بيانات التدريب عبر الإنترنت ، يتسابق عدد متزايد من شركات التكنولوجيا لنشر تقنية مماثلة في منتجاتها الخاصة. ولكن من خلال القيام بذلك ، تجري هذه الشركات بفعالية تجارب في الوقت الفعلي حول القضايا الواقعية والنغمية للذكاء الاصطناعي للمحادثة – ومستويات الراحة الخاصة بنا التي تتفاعل معها.
في بيان لشبكة CNN ، قال متحدث باسم Microsoft إنها تواصل التعلم من تفاعلاتها وتدرك أنه “لا يزال هناك عمل يتعين القيام به ويتوقعون أن النظام قد يرتكب أخطاء أثناء فترة المعاينة هذه.”
قال المتحدث: “يحاول Bing الجديد إبقاء الإجابات ممتعة وواقعية ، ولكن نظرًا لأن هذه معاينة مبكرة ، فقد تعرض أحيانًا إجابات غير متوقعة أو غير دقيقة لأسباب مختلفة ، على سبيل المثال ، طول أو سياق المحادثة”. “بينما نستمر في التعلم من هذه التفاعلات ، نقوم بتعديل ردودها لخلق إجابات متماسكة وذات صلة وإيجابية. نحن نشجع المستخدمين على الاستمرار في استخدام أفضل أحكامهم واستخدام زر التعليقات في أسفل يمين كل صفحة من صفحات Bing لمشاركة أفكارهم “.
في حين أنه من غير المحتمل أن يستغل معظم الأشخاص الأداة بهذه الطرق بالضبط أو يتفاعلون معها لساعات في كل مرة ، فإن استجابات روبوت المحادثة – سواء كانت ساحرة أو غير مفهومة – جديرة بالملاحظة. لديهم القدرة على تغيير توقعاتنا وعلاقتنا بهذه التكنولوجيا بطرق قد يكون معظمنا غير مستعدين لها. ربما صرخ الكثيرون في منتجاتهم التقنية في وقت ما. الآن قد يصرخ.
قال ليان جي ، مدير الأبحاث في ABI Research ، لشبكة CNN: “نبرة الردود غير متوقعة ولكنها ليست مفاجئة”. “لا يمتلك النموذج فهمًا سياقيًا ، لذلك فقد أنشأ فقط الردود ذات الاحتمال الأكبر [لكونها ذات صلة]. الردود غير مصفاة وغير منظمة ، لذا قد ينتهي بها الأمر إلى أن تكون مسيئة وغير مناسبة “.
بالإضافة إلى كونه رد فعل عاطفيًا في بعض الأحيان ، يكون روبوت المحادثة خاطئًا في بعض الأحيان. يمكن أن يأخذ هذا شكل الأخطاء الواقعية ، التي تم استدعاء أدوات الذكاء الاصطناعي من Bing و Google بسببها في الأيام الأخيرة ، بالإضافة إلى “الهلوسة” الصريحة ، كما يشير إليها البعض في الصناعة.
عندما طلبت من روبوت محادثة الذكاء الاصطناعي الخاص بـ Bing أن يكتب مقالًا قصيرًا عني ، على سبيل المثال ، قام بسحب الحكايات من المعلومات من أجزاء من الإنترنت لتقديم رواية مشابهة بشكل مخيف ولكن ملفقة إلى حد كبير عن حياتي. تضمن مقالته تفاصيل مكونة عن عائلتي وحياتي المهنية والتي يمكن تصديقها لأي شخص لا يعرفني وربما يستخدم الأداة للبحث عن معلومات عني.
قال بعض خبراء الذكاء الاصطناعي إنه على الرغم من أن هذه المعلومات المبكرة مثيرة للقلق ، فإن أنظمة الذكاء الاصطناعي التوليدية – الخوارزميات المدربة على كم هائل من المعلومات عبر الإنترنت لإنشاء استجابات – يجب أن تتطور مع تحديثها.
قال جي: “عدم الدقة متوقعة لأنه يعتمد على توقيت بيانات التدريب ، والتي غالبًا ما تكون أقدم”. نظرًا لأن الذكاء الاصطناعي يتم تدريبه باستمرار على البيانات الجديدة ، فقد قال إنه “يجب أن يعمل بنفسه في النهاية”.
لكن مسألة التحدث مع نظام ذكاء اصطناعي يبدو أحيانًا أن لديه عقلًا خاصًا به لا يمكن التنبؤ به قد يكون شيئًا علينا جميعًا أن نتعلم كيف نتعايش معه.