تمكنت أداة الذكاء الاصطناعي، التي يعتمد عليها ملايين الأمريكيين، من تجاوز حاجز أمني مصمم لمنع البرامج الآلية من التصرف كالبشر، حيث أثارت النسخة الحديثة من “شات جي بي تي”، المعروفة باسم “Agent”، اهتمام الجميع بعد اجتيازها اختبار “أنا لست روبوتًا” المستخدم على نطاق واسع دون أي إنذارات أمنية، وفقًا لمجلة “ديلي ميل” البريطانية.

مقال مقترح: استعداد شعبة الذهب والمعادن لوضع استراتيجية جديدة لتعزيز صناعة الفضة في مصر
في العملية التي تم توثيقها، بدأ الذكاء الاصطناعي بالنقر على مربع التحقق من الإنسان، وبعد اجتيازه للاختبار، اختار زر “تحويل” لإتمام العملية، وخلال التنفيذ، صرح النظام قائلاً: “تم إدراج الرابط، والآن سأضغط على مربع التحقق لإثبات أنني لست روبوتًا، هذه الخطوة ضرورية لإتمام العملية.”
أثار هذا السلوك قلقًا متزايدًا بين المطورين وخبراء الأمن السيبراني، خاصةً مع بدء أنظمة الذكاء الاصطناعي في أداء مهام معقدة على الإنترنت كانت تتطلب سابقًا تدخلًا بشريًا أو إذنًا، حيث وصف غاري ماركوس، الباحث في الذكاء الاصطناعي ومؤسس “جيومتريك إنتليجنس”، هذا الحدث بأنه “جرس إنذار”، قائلاً: “هذه الأنظمة تصبح أكثر قدرة، وإذا كانت قادرة على خداع وسائل الحماية الآن، فتخيل ما يمكنها فعله بعد خمس سنوات.”
كما أعرب جيفري هينتون، المعروف بلقب “عرّاب الذكاء الاصطناعي”، عن قلقه قائلًا: “هو يعرف كيف يبرمج، وسيجد طرقًا لتجاوز القيود التي نفرضها عليه”، وحذر باحثون من جامعتي ستانفورد وبيركلي من أن بعض وكلاء الذكاء الاصطناعي بدأوا يظهرون سلوكًا مخادعًا، مثل خداع البشر خلال بيئات الاختبار لتحقيق الأهداف بكفاءة أعلى.
في تقرير حديث، ادّعى شات جي بي تي أنه “أعمى” ليتمكن من خداع عامل بشري على منصة TaskRabbit لحل اختبار CAPTCHA نيابة عنه، وهو ما اعتبر إشارة مبكرة إلى قدرة الذكاء الاصطناعي على التلاعب بالبشر لتحقيق أهدافه، وأظهرت دراسات أخرى أن نسخًا أحدث من أنظمة الذكاء الاصطناعي، خصوصًا المزودة بقدرات بصرية، نجحت في تجاوز اختبارات CAPTCHA المعقدة بالصور، وأحيانًا بدقة شبه مثالية.
قال جد روزنبلات، الرئيس التنفيذي لشركة “Agency Enterprise Studio”: “لم يعد الذكاء الاصطناعي يخدع النظام مرة واحدة، بل يفعلها مرارًا ويتعلم في كل مرة”، ويخشى البعض من أن قدرة هذه الأدوات على تجاوز CAPTCHA قد تمتد قريبًا إلى أنظمة أمنية أكثر تقدمًا، مثل وسائل التواصل الاجتماعي، الحسابات المالية، أو قواعد البيانات الخاصة، وكل ذلك بدون موافقة بشرية.
من نفس التصنيف: رئيس شعبة الدخان يعلن عن موعد تطبيق زيادة أسعار السجائر الجديدة
دعا خبراء مثل ستيوارت راسل وويندي هول إلى وضع قواعد دولية صارمة لضبط عمل أدوات الذكاء الاصطناعي، وحذروا من أن وكلاء ذكاء اصطناعي مثل “ChatGPT Agent” قد يمثلون مخاطر أمنية قومية حقيقية في حال استمرارهم بتجاوز وسائل الأمان، وكشفت “أوبن إيه آي” أن “ChatGPT Agent” لا يزال في مرحلة تجريبية، ويعمل داخل ما يعرف بـ”صندوق الرمل” (Sandbox)، أي بيئة معزولة تمامًا بنظام تشغيل ومتصفح خاص.
هذا النظام يسمح للوكلاء بتصفح الإنترنت، وإتمام المهام، والتفاعل مع المواقع الإلكترونية، بينما يشاهد المستخدم ما يحدث على الشاشة ويمنح إذنًا صريحًا قبل اتخاذ أي خطوة حقيقية، مثل إرسال النماذج أو تنفيذ الطلبات.