Root Nationأخبارأخبار تكنولوجيا المعلوماتسيكون من المستحيل إدارة ذكاء اصطناعي فائق الذكاء

سيكون من المستحيل إدارة ذكاء اصطناعي فائق الذكاء

-

تمت مناقشة فكرة الذكاء الاصطناعي للإطاحة بالبشرية لعقود ، وفي يناير 2021 ، أصدر العلماء حكمهم حول ما إذا كان بإمكاننا التحكم في ذكاء خارق للكمبيوتر رفيع المستوى. رد؟ يكاد يكون من المؤكد لا.

تكمن المشكلة في أن التحكم في عقول خارقة أبعد من الفهم البشري يتطلب محاكاة للعقل الخارق الذي يمكننا تحليله. ولكن إذا لم نتمكن من فهمها ، فمن المستحيل إنشاء مثل هذه المحاكاة.

يعتقد مؤلفو ورقة بحثية في عام 2021 أن قواعد مثل "لا تؤذي البشر" لا يمكن وضعها ما لم نفهم السيناريوهات التي سيأتي بها الذكاء الاصطناعي. بمجرد أن يعمل نظام الكمبيوتر بمستوى يتجاوز قدرات المبرمجين لدينا ، لن نتمكن بعد الآن من وضع حدود.

الذكاء الاصطناعي

كتب الباحثون: "الذكاء الخارق هو مشكلة مختلفة اختلافًا جوهريًا عن تلك التي تدرس عادةً تحت شعار" أخلاقيات الروبوت ". "هذا لأن العقل الخارق متعدد الأوجه وبالتالي يحتمل أن يكون قادرًا على تعبئة مجموعة متنوعة من الموارد لتحقيق أهداف يحتمل أن يتعذر على البشر فهمها ، ناهيك عن التحكم فيها."

يأتي جزء من تفكير الفريق من مشاكل التوقف، اقترحه آلان تورينج في عام 1936. يكمن التحدي في معرفة ما إذا كان برنامج الكمبيوتر سيصل إلى نتيجة ويجيب (ويتوقف) أو يتسكع إلى الأبد في محاولة للعثور على الإجابة.

كما أثبت تورينج بالمساعدة الرياضيات الذكية، في حين أننا قد نعرف هذا لبعض البرامج المحددة ، فمن المستحيل منطقياً إيجاد طريقة تسمح لنا بمعرفة ذلك لكل برنامج محتمل يمكن كتابته في أي وقت. هذا يعيدنا إلى الذكاء الاصطناعي ، والذي في حالة فائقة الذكاء يمكنه تخزين جميع برامج الكمبيوتر الممكنة في ذاكرته في نفس الوقت.

مثير للاهتمام أيضًا:

أي برنامج مكتوب ، على سبيل المثال ، لمنع الذكاء الاصطناعي من إلحاق الأذى بالبشر وتدمير العالم قد يصل أو لا يصل إلى نتيجة (ويتوقف) - فمن المستحيل رياضيًا أن تكون متأكدًا تمامًا في أي من الاتجاهين ، مما يعني أنه لا يمكن تقييده. قال عالم الكمبيوتر إياد رهوان من معهد ماكس بلانك للتنمية البشرية في ألمانيا في يناير: "هذا يجعل خوارزمية الردع بشكل أساسي غير قابلة للاستخدام".

يقول الباحثون إن أحد البدائل لتعليم أخلاقيات الذكاء الاصطناعي والمحظورات ضد تدمير العالم ، والذي لا يمكن لأي خوارزمية التأكد منه تمامًا ، هو الحد من قدرات العقل الخارق. على سبيل المثال ، قد يتم قطعه عن جزء من الإنترنت أو شبكات معينة.

يرفض مؤلفو دراسة حديثة هذه الفكرة أيضًا ، معتقدين أنها ستحد من نطاق الذكاء الاصطناعي - يقولون ، إذا كنا لن نستخدمها لحل مشاكل تتجاوز القدرات البشرية ، فلماذا ننشئها على الإطلاق؟

الذكاء الاصطناعي

إذا كنا سنعمل على تطوير الذكاء الاصطناعي ، فقد لا نعرف حتى متى سيظهر ذكاء خارق ، خارج عن سيطرتنا ، لذا فهو غير مفهوم. هذا يعني أننا بحاجة إلى البدء في طرح أسئلة جادة حول ما نتجه إليه.

يقول عالم الكمبيوتر مانويل كيبريان من معهد ماكس بلانك للتنمية البشرية: "تبدو الآلة فائقة الذكاء التي تدير العالم وكأنها خيال علمي". ولكن هناك بالفعل آلات تؤدي بشكل مستقل بعض المهام المهمة ، في حين أن المبرمجين لا يفهمون تمامًا كيف تعلموا ذلك.

لذلك ، فإن السؤال الذي يطرح نفسه هو ما إذا كان يمكن في مرحلة ما أن يصبح غير قابل للسيطرة وخطيرًا للبشرية ...

اقرأ أيضا:

مصدرعلم
اشتراك
يخطر حول
ضيف

0 التعليقات
المراجعات المضمنة
عرض كل التعليقات