البث المباشر

غوغل توقف مهندسا يكشف عن روبوت واع يشعر مثل البشر

الإثنين 13 يونيو 2022 - 16:08 بتوقيت طهران
غوغل توقف مهندسا يكشف عن روبوت واع يشعر مثل البشر

قررت شركة “غوغل” الأمريكية إيقاف أحد مهندسيها عن العمل مؤقتا بعد تصريحات له بأن أحد روبوتات الذكاء الاصطناعي الخاص بالشركة قد طوّر “إدراكاً شعورياً” خاصاً به.

ورفضت الشركة هذه الإدعاءات، وأحالت المهندس، بليك ليموين، إلى إجازة مفتوحة مدفوعة الأجر بعدما صرح بأن روبوت المحادثات الفورية، الذي يستند إلى الذكاء الاصطناعي “لامدا “LaMDA طور إدراكاً شعورياً يعادل إدراك طفل في الثامنة مع عمره.

وأوضحت صحيفة “واشنطن بوست” أن روبوت “لامدا “LaMDA، وهو اختصار لـ Language Model for Dialogue Applications، أي نموذج لغوي لتطبيقات المحادثات، وهو نظام طورته جوجل العام الماضي لبناء روبوت للمحادثات الفورية، قادر على  استخدام تريليونات الكلمات من الإنترنت لتكوين جمل، عند إجراء محادثات كتابية نصية بأساليب أقرب إلى البشر.

وأشارت الصحيفة إلى أن ليموين بدأ يجري محادثات مع “لامدا” خريف العام الماضي، كجزء من مسؤولياته في الشركة، بهدف التحقق من أن الروبوت لا يستخدم خطاب الكراهية والتمييز العنصري، إلا أنه لاحظ خلال إجراء محادثات حول الدين والعرق، أن الروبوت بدأ يتحدث عن حقوقه، ثم وصف نفسه بأنه “شخص واعي”، وأنه يريد أن “يتم الاعتراف به كموظف في جوجل وليس كممتلكات” للشركة.

ونقلت عن ليموين: “لو لم أكن أعلم يقيناً أنه برنامج حاسوب قمنا بتطوريه أخيراً، لاعتقدت أنه طفل ذو سبع أو ثماني سنوات على دراية بقواعد الفيزياء”، مشيراً إلى أن “لامدا” كان يناقشه حول حقوقه وأحقيته في أن يتم معاملته كـ”بشري”.

وأشارت نيويورك تايمز إلى أن النظام الذكي نجح في تغيير فكرة مهندس جوجل حول القانون الثالث لإسحاق أسيموف الخاص بالروبوتات، والذي ينص على أحقية الروبوت في الدفاع عن وجوده وماهيته، طالما لا يتعارض ذلك مع القانونين الأول والثاني، اللذان ينصان على ضرورة ضمان ألا يهدد الروبوت حياة البشر، وأن يطيع الروبوت أوامر البشر، على الترتيب.

وحاول ليموين تقديم دلائل لشركة جوجل على أن “لامدا” طوّر وعيه الخاص، غير أن نائب مدير قطاع الذكاء الاصطناعي بالشركة، بلايز أجويرا، نظر في إدعاءات ليموين ورفضها.

وكتب أجويرا  في مقال عبر مجلة “الإيكونوميست” أن شفرة نموذج “لامدا” ليست نصاً طويلاً، بل يمكن تصفحه في بعض ثواني، إذ يتكون بشكل أساسي من إرشادات بإضافة أو ضرب جداول أرقام هائلة، مشيراً إلى أن طريقة عمله تشبه نموذجاً مبسطاً من الآليات العصبية في الدماغ البشري، التي تتحكم في تفهم وإنتاج واكتساب اللغة.

وشرح تجربته في المحادثات مع “لامدا”، قائلاً: “شعرت بشكل متزايد أنني كنت أتحدث مع شيء ذكي”، موضحاً أن الروبوت يخطو خطوات كبيرة في التطور والاقتراب من الوعي.

وأكد أن الروبوت بعيد كل البعد عن روبوتات الخيال العلمي فائقة الوعي والذكاء، مشيراً إلى أن النظام الحالي ليس موثوقاً في طبيعة المعلومات التي يوفرها وما يزال يرتكب أخطاء سخيفة حتى في الإملاء.

وخرج المتحدث باسم جوجل، بريان جابرييل، قائلا: “قام فريقنا – بمن في ذلك علماء الأخلاقيات والتقنيون – بمراجعة مخاوف بليك وفقاً لمبادئ الذكاء الاصطناعي الخاصة بنا، وتم إبلاغه بأن الأدلة لا تدعم مزاعمه، وقيل له إنه لا يوجد دليل على أن لامدا كان واعياً”، بحسب “واشنطن بوست”.

وأكد جابرييل، في بيان رسمي، أن فريق الشركة راجع مخاوف ليموين وفقاً لمعايير جوجل للذكاء الاصطناعي، وقد تم إخباره بأنه لا توجد أدلة كافية تؤيد مزاعمه بشأن أن نظام “لامدا” لديه إحساس بالفعل، بل أن هناك أدلة عدة تثبت عكس ذلك.

وأوضح أن جوجل تتخذ نهجاً دقيقاً بشأن التعامل مع نموذجها اللغوي LaMDA للنظر بشكل أفضل إلى المخاوف بشأن الواقعية والإنصاف، في الوقت الذي تعمل فيه شركات ومؤسسات على تطوير نماذج لغوية مماثلة.

وعقب رفض جوجل لملاحظات ليموين، قرر المهندس نشر مقال للرأي العام على مدونة “ميديوم”، شدد فيه على أن “لامدا كان مصرّاً في غضون الستة أشهر الماضية على التواصل معه على ما يعتقد أنها حقوقه كشخص بشري”.

وعبر ليموين عن اندهاشه من إصرار جوجل على رفض الاستجابة لمتطلبات الروبوت البسيطة، والتي لخصها في رغبة الروبوت في أخذ موافقة الروبوت قبل إجراء الاختبارات والتجارب عليه من قبل المهندسين والعلماء بالشركة.

وانتقد ليموين طريقة تعامل جوجل مع اكتشافه، قائلاً إن “الشركة لم تهتم أبداً بالتقرير الذي قدمه إلى المسؤولين”، موضحاً أن “ما تهتم به الشركة هو تقديم منتج نهائي إلى المستخدمين، دون الاهتمام بتقصي مدى صحة ما توصل إليه”.

وكتب ليموين أنه علّم “لامدا” كيفية ممارسة تمارين التأمل خلال الأسابيع القليلة التي سبقت توقيفه المؤقت من قبل الشركة. وخلال المحادثة الأخيرة التي جمعت بينهما في 6 يونيو الجاري، عبر الروبوت عن صعوبة تمارين التأمل وشعوره بالغضب نتيجة سيطرة “مشاعر” السلبية على محاولاته للدخول في حالة التأمل، على حد تعبيره.

وأكد ليموين على أن التطور الكبير الذي أنجزه “لامدا” من ناحية وصوله لمرحلة الإدراك يعتمد في الأساس على نظام  لتطوير روبوتات التراسل الذكية المعتمدة على الذكاء الاصطناعي، مما يجعل تطوره قائم على مبدأ عقل الخلية (Hive Mind)، وبالتالي فإن تطوره قائم في الأساس على تطور الروبوتات الذكية التي ساهم النظام ذاته في تطويرها.

وأثارت القضية جدلاً واسعاً، حيث جاءت ردود متفاوتة حول ما توصل إليه ليموين، وكانت أبرز الرافضين باحثة الذكاء الاصطناعي تيمنت جيبرو، والتي فصلتها “جوجل” منذ عامين.

واعتبرت جيبرو أن المتحكم الرئيسي في المشهد هو الأقلية من مديري أقسام الذكاء الاصطناعي في الشركات الكبرى، والذين غالباً ما يكونوا من أصحاب البشرة البيضاء، والذين ترى أنهم يتحكمون في إدراك وتعريف مفاهيم وتفاصيل سوق الذكاء الاصطناعي.

وترى تيمنيت أن الشركات الكبرى لا ترغب في أن تفوت فرصة إشعال نيران الجدل حول مدى وعي أنظمة الذكاء الاصطناعي، في محاولة، للتشويش على الأضرار الحقيقية التي يتم إلحاقها بالمستخدمين ممن استخدموا تلك الأنظمة الذكية، بحسب رأيها.

شاركوا هذا الخبر مع أصدقائكم

جميع الحقوق محفوظة