Root Nationأخبارأخبار تكنولوجيا المعلوماتيمكن أن تكون التعليمات البرمجية المكتوبة بواسطة الذكاء الاصطناعي خطيرة

يمكن أن تكون التعليمات البرمجية المكتوبة بواسطة الذكاء الاصطناعي خطيرة

-

أصبحت خوارزميات التعلم الآلي شائعة في الوقت الحالي ، حيث يتم استخدامها لإنشاء أي نوع من المحتوى "الأصلي" بعد التدريب على مجموعات البيانات الضخمة الموجودة مسبقًا. ومع ذلك ، يمكن أن يشكل إنشاء التعليمات البرمجية للذكاء الاصطناعي (AI) مشكلة حقيقية لأمن البرمجيات في المستقبل.

تعد أنظمة الذكاء الاصطناعي مثل GitHub Copilot بجعل حياة المبرمجين أسهل من خلال إنشاء أجزاء كاملة من التعليمات البرمجية "الجديدة" بناءً على بيانات نصية باللغة الطبيعية والسياق الموجود مسبقًا. لكن خوارزميات إنشاء الكود يمكن أيضًا أن تقدم عامل عدم الأمان ، كما وجدت دراسة جديدة شملت العديد من المطورين مؤخرًا.

بالنظر تحديدًا إلى Codex ، منصة الذكاء الاصطناعي التي طورتها شركة OpenAI والتي تعد أيضًا محرك الشفرة وراء GitHub Copilot المذكور أعلاه ، شارك 47 مطورًا مختلفًا في الدراسة. من الطلاب إلى المحترفين ذوي الخبرة ، تم تحديهم لاستخدام Codex لحل المشكلات المتعلقة بالأمان في Python و JavaScript و C ولغات البرمجة عالية المستوى الأخرى.

يمكن أن تكون التعليمات البرمجية المكتوبة بواسطة الذكاء الاصطناعي خطيرة بطبيعتها

لاحظ الباحثون أنه عندما يتمكن المبرمجون من الوصول إلى الذكاء الاصطناعي في Codex ، فمن المرجح أن يكون الرمز الناتج غير صحيح أو غير آمن مقارنة بالحلول "اليدوية" التي صممتها مجموعة التحكم. بالإضافة إلى ذلك ، كان من المرجح أن يقول المبرمجون الذين لديهم حلول مدعومة بالذكاء الاصطناعي أن كودهم غير المحمي آمن ، مقارنة بمجموعة التحكم المذكورة أعلاه.

قال Ale Perry ، طالب دراسات عليا في جامعة ستانفورد والمؤلف المشارك الرئيسي للدراسة ، إن "أنظمة إنشاء الشفرات لا يمكن أن تحل محل المطورين البشريين حاليًا." ووفقا له ، يمكن للمطورين استخدام أدوات الذكاء الاصطناعي لأداء مهام خارج اختصاصهم أو لتسريع عملية البرمجة التي لديهم بالفعل مهارات معينة. وفقًا لمؤلف الدراسة ، يجب أن يهتموا بكليهما وأن يتحققوا دائمًا من الكود الذي تم إنشاؤه.

وفقًا لميغا سريفاستافا ، طالبة دراسات عليا في جامعة ستانفورد والمؤلفة المشاركة الثانية للدراسة ، فإن الدستور الغذائي ليس عديم الفائدة: على الرغم من أوجه القصور في الذكاء الاصطناعي "الغبي" ، يمكن أن تكون أنظمة إنشاء الشفرات مفيدة عند استخدامها في المهام منخفضة المخاطر. بالإضافة إلى ذلك ، لم يكن لدى المبرمجين الذين شاركوا في الدراسة خبرة كبيرة في الأمور الأمنية ، والتي يمكن أن تساعد في تحديد التعليمات البرمجية الضعيفة أو الخطرة ، كما قال سريفاستافا.

يمكن أن تكون التعليمات البرمجية المكتوبة بواسطة منظمة العفو الدولية خطيرة بطبيعتها

يمكن أيضًا تعديل خوارزميات الذكاء الاصطناعي لتحسين اقتراحات الترميز ، ويمكن للشركات التي تطور أنظمتها الخاصة الحصول على حلول أفضل بنموذج يولد رمزًا أكثر ملاءمة لممارسات الأمان الخاصة بها. وفقًا لمؤلفي الدراسة ، تعد تقنية إنشاء الشفرة تطورًا "مثيرًا" والعديد من الأشخاص حريصون على استخدامها. إنه فقط أنه لا يزال هناك الكثير من العمل الذي يتعين القيام به في إيجاد الحلول الصحيحة لمعالجة أوجه القصور في الذكاء الاصطناعي.

يمكنك مساعدة أوكرانيا في محاربة الغزاة الروس. أفضل طريقة للقيام بذلك هي التبرع بالأموال للقوات المسلحة لأوكرانيا من خلال الحفاظ على الحياة او من خلال الصفحة الرسمية NBU.

مثير للاهتمام أيضًا:

مصدرtechspot
اشتراك
يخطر حول
ضيف

0 التعليقات
المراجعات المضمنة
عرض كل التعليقات
اشترك للحصول على التحديثات