حذر محمد الحارثي، خبير تكنولوجيا المعلومات، من المخاطر المرتبطة بالاستخدام غير الآمن لتطبيقات الذكاء الاصطناعي مثل ChatGPT، وأكد على أهمية توخي الحذر عند إدخال أي بيانات شخصية أو حساسة على هذه المنصات.

شوف كمان: حقوق المرأة في قائمة المنقولات والذهب.. محامٍ يوضح حقها الأصيل الذي لا يسقط
تراجعت شركة OpenAI، المطورة لتطبيق ChatGPT، عن تفعيل ميزة جديدة كانت ستسمح للمستخدمين بجعل محادثاتهم “قابلة للاكتشاف” عبر الإنترنت، وذلك بعد موجة من الانتقادات والمخاوف المتزايدة بشأن الخصوصية، حيث شارك بعض المستخدمين محادثات تحتوي على معلومات شخصية أو حساسة دون قصد، مما أثار قلقًا واسعًا حول احتمالية تسريب هذه البيانات.
وقال الحارثي خلال حديثه مع “نبأ العرب” إن الثقة بين المستخدم وأي تطبيق ذكي يجب أن تكون محل نظر دائم، خاصة في ظل تبادل البيانات، مضيفًا: “سبق أن ظهرت ثغرات في بعض التطبيقات سمحت للمستخدمين برؤية أسئلة ومعلومات طرحها آخرون، وهو ما يمثل خرقًا واضحًا للخصوصية”
وأشار إلى أن أغلب هذه التطبيقات تعتمد على تخزين البيانات سحابيًا خارج أجهزة المستخدمين، مما يجعلها عرضة للوصول من أطراف أخرى، حيث قال: “بعض الأشخاص يشاركون صورًا أو تحاليل طبية بغرض الحصول على تشخيص، وهذا أمر بالغ الخطورة”
مواضيع مشابهة: إصابة 3 أشخاص بينهم سيدة في حادث تصادم موتوسيكل بالدقهلية
ونصح الحارثي بالتعامل مع أدوات الذكاء الاصطناعي كمحركات بحث للحصول على معلومات عامة أو استشارات مهنية فقط، دون إدخال أي بيانات شخصية.
كما قدم مجموعة من النصائح الأساسية لضمان الاستخدام الآمن لهذه الأدوات، مشددًا على ضرورة تجنب:
– تحميل أو مشاركة صور شخصية أو عائلية.
– إدخال بيانات طبية أو مستندات حساسة.
– مشاركة معلومات الحسابات البنكية أو كلمات المرور.
– كتابة أي محتوى لا ترغب في ظهوره للعلن.
وأكد الحارثي أن الوعي الرقمي والحرص الشخصي هما خط الدفاع الأول لحماية الخصوصية في عصر الذكاء الاصطناعي.