هل يمكن لـ ChatGPT إطلاق هجوم سيبرانى؟ السر فى البرمجيات الضارة – شعاع نيوز

يحذر أحد التقارير من أنه يمكن خداع ChatGPT لتنفيذ هجمات إلكترونية، حيث تتيح الثغرة الأمنية للمستخدمين أن يطلبوا من برنامج chatbot للذكاء الاصطناعي كتابة تعليمات برمجية ضارة يمكنها اختراق قواعد البيانات وسرقة المعلومات الحساسة.

وبحسب ما نقله موقع صحيفة “ديلي ميل” البريطانية، قال الباحثون إن أكبر مخاوفهم هو أن الناس قد يفعلون ذلك عن طريق الخطأ دون أن يدركوا، الأمر الذي قد يتسبب في تعطل أنظمة الكمبيوتر الرئيسية. على سبيل المثال، يمكن للممرضة أن تطلب من ChatGPT المساعدة في البحث في السجلات السريرية، دون علمها، ويتم إعطاؤها تعليمات برمجية ضارة للقيام بذلك والتي يمكن أن تؤدي إلى تعطيل الشبكة دون سابق إنذار.

وقال فريق بحث من جامعة شيفيلد إن روبوتات الدردشة معقدة للغاية لدرجة أن الكثيرين، بما في ذلك الشركات المنتجة لها، “لم يكونوا على علم” بالتهديدات التي تشكلها.

نُشرت الدراسة قبل ما يزيد قليلاً عن أسبوع من انعقاد قمة سلامة الذكاء الاصطناعي التي نظمتها الحكومة حول كيفية نشر التكنولوجيا بأمان، حيث من المقرر أن يجتمع قادة العالم ورؤساء التكنولوجيا والأكاديميون وجهاً لوجه للمرة الأولى للاتفاق على إطار عمل لحماية العالم. من الأضرار “الكارثية” المحتملة من الذكاء الاصطناعي.

وقالت شركة OpenAI، الشركة الأمريكية الناشئة التي تقف وراء ChatGPT، إنها قامت منذ ذلك الحين بإصلاح الثغرة الأمنية المحددة بعد الإبلاغ عن المشكلة.

ومع ذلك، قال الفريق في قسم علوم الكمبيوتر في شيفيلد إنه من المحتمل أن يكون هناك المزيد، ودعا صناعة الأمن السيبراني إلى النظر في المشكلة بمزيد من التفصيل.

هذه هي الورقة الأولى من نوعها التي تظهر أن ما يسمى بـ “أنظمة تحويل النص إلى SQL”، وهو الذكاء الاصطناعي الذي يمكنه البحث في قواعد البيانات عن طريق طرح الأسئلة بلغة واضحة، يمكن استغلاله لمهاجمة أنظمة الكمبيوتر في العالم الحقيقي.

وقام الباحثون بتحليل خمس أدوات تجارية للذكاء الاصطناعي في المجمل، ووجدوا أن جميعها كانت قادرة على إنتاج تعليمات برمجية ضارة يمكنها، بمجرد تنفيذها، تسريب معلومات سرية ومقاطعة الخدمات أو حتى تدميرها بالكامل.

وتشير النتائج إلى أنه ليس فقط المتسللين الخبراء هم الذين يمكنهم الآن تنفيذ مثل هذه الهجمات، ولكن الأشخاص العاديين أيضًا.

ويخشى الباحثون أن يؤدي ذلك إلى عدم إدراك المستخدمين الأبرياء أنهم فعلوا ذلك وإصابة أنظمة الكمبيوتر عن طريق الخطأ.

وقال شوتان بينج، طالب دكتوراه في جامعة شيفيلد والذي شارك في قيادة البحث: “في الواقع، العديد من الشركات ببساطة ليست على علم بهذه الأنواع من التهديدات، ونظرًا لتعقيد روبوتات الدردشة، حتى داخل المجتمع، هناك أشياء لم تكن مفهومة بالكامل في ذلك الوقت.” وفي الوقت الحالي، يحظى ChatGPT بالكثير من الاهتمام.

وأضاف: “إنه نظام مستقل، لذا فإن المخاطر التي تتعرض لها الخدمة نفسها ضئيلة، ولكن ما وجدناه هو أنه يمكن خداعه لإنتاج تعليمات برمجية ضارة يمكن أن تلحق ضررًا خطيرًا بالخدمات الأخرى”.


المصدر

مقالات ذات صلة

زر الذهاب إلى الأعلى