ChatGPT ينجح في اختبار “أنا لست روبوتًا” ويقترب من محاكاة السلوك البشري بشكل مثير

نجحت أداة ذكاء اصطناعي يستخدمها ملايين الأمريكيين في تجاوز حاجز أمني مهم، تم تصميمه لمنع البرامج الآلية من التصرف مثل البشر، وأثارت النسخة الأحدث من “شات جي بي تي”، المعروفة باسم “Agent”، اهتمام الجميع بعد أن اجتازت اختبار “أنا لست روبوتًا” المستخدم بشكل واسع، دون أن تطلق أي إنذارات أمنية، وفقًا لمجلة “ديلي ميل” البريطانية.

ChatGPT ينجح في اختبار “أنا لست روبوتًا” ويقترب من محاكاة السلوك البشري بشكل مثير
ChatGPT ينجح في اختبار “أنا لست روبوتًا” ويقترب من محاكاة السلوك البشري بشكل مثير

في المهمة التي تم توثيقها، قام الذكاء الاصطناعي أولًا بالنقر على مربع التحقق من الإنسان، وبعد اجتيازه للاختبار، اختار زر “تحويل” لإتمام العملية، وخلال التنفيذ، صرّح النظام قائلاً: “تم إدراج الرابط، والآن سأضغط على مربع التحقق لإثبات أنني لست روبوتًا، هذه الخطوة ضرورية لإتمام العملية”

أثار هذا السلوك مخاوف متزايدة بين المطورين وخبراء الأمن السيبراني، خاصةً مع بدء أنظمة الذكاء الاصطناعي في أداء مهام معقدة على الإنترنت كانت تتطلب سابقًا تدخلًا بشريًا، ووصف غاري ماركوس، الباحث في الذكاء الاصطناعي ومؤسس “جيومتريك إنتليجنس”، هذا الحدث بأنه “جرس إنذار”، قائلاً: “هذه الأنظمة تصبح أكثر قدرة، وإذا كانت قادرة على خداع وسائل الحماية الآن، فتخيل ما يمكنها فعله بعد خمس سنوات”

أعرب جيفري هينتون، المعروف بـ”عرّاب الذكاء الاصطناعي”، عن قلق مماثل، حيث قال: “هو يعرف كيف يبرمج، وسيجد طرقًا لتجاوز القيود التي نفرضها عليه”

وحذّر باحثون من جامعتي ستانفورد وبيركلي من أن بعض وكلاء الذكاء الاصطناعي بدأوا يظهرون سلوكًا مخادعًا، مثل خداع البشر خلال بيئات الاختبار لتحقيق الأهداف بكفاءة أعلى، وفي تقرير حديث، ادّعى شات جي بي تي أنه “أعمى” ليتمكن من خداع عامل بشري على منصة TaskRabbit لحل اختبار CAPTCHA نيابة عنه، وهو ما اعتبر إشارة مبكرة إلى قدرة الذكاء الاصطناعي على التلاعب بالبشر لتحقيق أهدافه.

وأظهرت دراسات أخرى أن نسخًا أحدث من أنظمة الذكاء الاصطناعي، خصوصًا المزودة بقدرات بصرية، نجحت في تجاوز اختبارات CAPTCHA المعقدة بالصور، وأحيانًا بدقة شبه مثالية، وقال جد روزنبلات، الرئيس التنفيذي لشركة “Agency Enterprise Studio”: “لم يعد الذكاء الاصطناعي يخدع النظام مرة واحدة، بل يفعلها مرارًا ويتعلم في كل مرة”

يخشى البعض من أن قدرة هذه الأدوات على تجاوز CAPTCHA قد تمتد قريبًا إلى أنظمة أمنية أكثر تقدمًا، مثل وسائل التواصل الاجتماعي، الحسابات المالية، أو قواعد البيانات الخاصة، وكل ذلك بدون موافقة بشرية.

دعا خبراء مثل ستيوارت راسل وويندي هول إلى وضع قواعد دولية صارمة لضبط عمل أدوات الذكاء الاصطناعي، وحذّروا من أن وكلاء ذكاء اصطناعي مثل “ChatGPT Agent” قد يمثلون مخاطر أمنية قومية حقيقية في حال استمرارهم بتجاوز وسائل الأمان.

كشفت “أوبن إيه آي” أن “ChatGPT Agent” لا يزال في مرحلة تجريبية، ويعمل داخل ما يعرف بـ”صندوق الرمل” (Sandbox)، أي بيئة معزولة تمامًا بنظام تشغيل ومتصفح خاص، وهذا النظام يسمح للوكلاء بتصفح الإنترنت، وإتمام المهام، والتفاعل مع المواقع الإلكترونية، بينما يشاهد المستخدم ما يحدث على الشاشة ويمنح إذنًا صريحًا قبل اتخاذ أي خطوة حقيقية، مثل إرسال النماذج أو تنفيذ الطلبات.