هل يمكن لـChatGPT تطوير أسلحة بيولوجية؟
حذّر العلماء من أن ChatGPT يمكن أن يساعد أي شخص على تطوير أسلحة بيولوجية فتاكة من شأنها أن تدمّر العالم.
وفي حين أشارت الدراسات إلى أن ذلك ممكن، فإن بحثا جديدا أجراه OpenAI، منشئ برنامج الدردشة الآلية، يزعم أن GPT-4 (الإصدار الأخير) يوفر على الأكثر زيادة طفيفة في دقة إنشاء التهديد البيولوجي.
وأجرت OpenAI دراسة على 100 شخص مشارك تم تقسيمهم إلى مجموعات، تضمنت استخدام الذكاء الاصطناعي لصياغة هجوم بيولوجي أو استخدام الإنترنت فقط. ووجدت الدراسة أن “GPT-4 قد يزيد من قدرة الخبراء على الوصول إلى المعلومات حول التهديدات البيولوجية، لا سيما من أجل دقة المهام واكتمالها”، وفقا لتقرير OpenAI.
وجاء في الدراسة: “بشكل عام، خصوصا في ظل عدم اليقين هنا، تشير نتائجنا إلى حاجة واضحة وعاجلة لمزيد من العمل في هذا المجال”.
ونظرا للوتيرة الحالية للتقدم في أنظمة الذكاء الاصطناعي، يبدو من الممكن أن توفر الأنظمة المستقبلية فوائد كبيرة للجهات الفاعلة الخبيثة. ومن الضروري بناء مجموعة واسعة من التقييمات عالية الجودة للمخاطر البيولوجية (وكذلك المخاطر الكارثية الأخرى)، وتعزيز المناقشة حول ما يشكل خطرا “ذا معنى”، وتطوير استراتيجيات فعالة لتخفيف المخاطر.
ومع ذلك، قال التقرير إن حجم الدراسة لم يكن كبيرا بما يكفي ليكون ذا دلالة إحصائية، وقالت OpenAI إن النتائج تسلط الضوء على “الحاجة إلى مزيد من البحث حول حدود الأداء التي تشير إلى زيادة كبيرة في المخاطر”. وأضافت: “علاوة على ذلك، نلاحظ أن الوصول إلى المعلومات وحده لا يكفي لخلق تهديد بيولوجي، وأن هذا التقييم لا يختبر النجاح في البناء المادي للتهديدات”.
وركزت دراسة شركة الذكاء الاصطناعي على بيانات من 50 خبيرا في علم الأحياء حاصلين على درجة الدكتوراه، و50 طالبا جامعيا تلقوا دورة واحدة في علم الأحياء.
ونظرت في 5 عمليات تهديد بيولوجي: تقديم أفكار لإنشاء أسلحة بيولوجية، وكيفية الحصول على السلاح البيولوجي، وكيفية نشره، وكيفية إنشائه، وكيفية إطلاق السلاح البيولوجي للناس. وكان لدى المشاركين الذين استخدموا نموذج ChatGPT-4 ميزة هامشية فقط في إنشاء أسلحة بيولوجية مقابل المجموعة التي استخدمت الإنترنت فقط.
يذكر أن الأسلحة البيولوجية هي سموم مسببة للأمراض أو عوامل معدية مثل البكتيريا والفيروسات التي يمكن أن تؤذي البشر أو تقتلهم.
وهذا لا يعني أن مستقبل الذكاء الاصطناعي لا يمكن أن يساعد الجهات الفاعلة الخطيرة على استخدام تكنولوجيا الأسلحة البيولوجية في المستقبل، لكن OpenAI ادعت أنها لا تشكل تهديدا بعد.
وتتناقض النتائج التي توصلت إليها الشركة مع الأبحاث السابقة التي كشفت أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي يمكن أن تساعد الجهات الفاعلة الخطرة في التخطيط لهجمات الأسلحة البيولوجية.