Root Nationمقالاتتحليلاتست وصايا للذكاء الاصطناعي

ست وصايا للذكاء الاصطناعي

-

ستتميز السنوات التالية بالتطور السريع لتقنيات الذكاء الاصطناعي. ربما يكون من الضروري تقديم أطر عمل محددة بوضوح لإنشاء واستخدام الذكاء الاصطناعي؟ هل 6 أشهر من الخبرة كافية لتنظيم تقنية لم تغادر المختبر بعد؟ يأتي هذا السؤال بشكل متزايد من أفواه الخبراء والصحفيين عندما يتعلق الأمر بالذكاء الاصطناعي. الأصوات والدعوات لاتخاذ تدابير لتنظيم الذكاء الاصطناعي - على مستوى المستخدم وعلى مستوى تطوير المشروع - يتم سماعها أكثر فأكثر. بدأ تاريخ مثل هذه النداءات منذ زمن بعيد.

إن الوجود الواسع للذكاء الاصطناعي في الفضاء الرقمي ، وقبل كل شيء ، النماذج القادرة على إنشاء محتوى لا يختلف عن المحتوى الذي أنشأه البشر ، يثير مشاعر مختلفة تمامًا. من ناحية أخرى ، لدينا مجموعة من المتحمسين الذين يرون المستقبل في الذكاء الاصطناعي ، وعلى الرغم من قدراته المحدودة نسبيًا (لأن الذكاء الاصطناعي لا يفكر ، وغالبًا ما يأخذ المعلومات من الإنترنت) ، لا يخشون تكليفه بالعديد من المهام . على الجانب الآخر من الحاجز ، هناك مجموعة تعبر عن شكوكها وقلقها بشأن الاتجاهات الحالية في تطوير الذكاء الاصطناعي.

مسلمة منظمة العفو الدولية

الجسر بين المجموعتين هو باحثو الذكاء الاصطناعي ، الذين ، من ناحية ، يستشهدون بالعديد من الأمثلة حول كيفية تأثير الذكاء الاصطناعي بشكل إيجابي على الواقع المحيط. في الوقت نفسه ، فهم يدركون أنه من السابق لأوانه الاستراحة على أمجادهم ، وأن القفزة التكنولوجية الهائلة تجلب العديد من التحديات والمسؤولية الكبيرة. ومن الأمثلة الواضحة على هذا الموقف مجموعة دولية من الباحثين في مجال الذكاء الاصطناعي والتعلم الآلي بقيادة الدكتور أوزليم غاريباي من جامعة سنترال فلوريدا. المنشور المؤلف من 47 صفحة ، والذي كتبه 26 عالمًا من جميع أنحاء العالم ، يحدد ويصف ستة تحديات يجب على المؤسسات البحثية والشركات والشركات التصدي لها لجعل نماذجها (والبرامج التي تستخدمها) آمنة.

نعم ، هذا عمل علمي جاد له تفسيرات مهمة لفهم مستقبل الذكاء الاصطناعي. يمكن لمن يهمه الأمر بشكل مستقل اقرأ هذا التقرير العلمي واستخلاص النتائج الخاصة بك. بكلمات بسيطة ، حدد العلماء 6 وصايا للذكاء الاصطناعي. يجب أن تتوافق جميع تطورات وإجراءات الذكاء الاصطناعي معها حتى تكون آمنة للناس والعالم.

مسلمة منظمة العفو الدولية

في مقالتي ، المكتوب بدقة على أساس هذا العمل العلمي ، سأحاول صياغة الافتراضات الرئيسية والقوانين التي بموجبها يجب أن يتواجد الذكاء الاصطناعي ويتطور. نعم ، هذا هو تفسيري شبه الحر لاستنتاجات العلماء فيما يتعلق بتطوير الذكاء الاصطناعي ومحاولة تقديمها في نسخة توراتية ، إذا جاز التعبير. لكن هكذا أردت أن أقدم لكم هذا العمل العلمي للعلماء المحترمين.

مثير للاهتمام أيضًا: بناء الذكاء الاصطناعي: من يقود السباق؟

القانون الأول: رفاهية الإنسان

الافتراض الأول للباحثين هو تركيز عمل الذكاء الاصطناعي على رفاهية الإنسان. بسبب الافتقار إلى "القيم الإنسانية والفطرة السليمة والأخلاق" ، يمكن للذكاء الاصطناعي أن يتصرف بطريقة تؤدي إلى تدهور كبير في رفاهية الإنسان. يمكن أن تكون المشاكل ناتجة عن القدرات الخارقة للذكاء الاصطناعي (على سبيل المثال ، مدى سهولة هزيمة الذكاء الاصطناعي للبشر - وليس فقط في الشطرنج) ، ولكن أيضًا نتيجة حقيقة أن الذكاء الاصطناعي لا يفكر بنفسه ، وبالتالي فهو غير قادر على "تصفية" التحيزات أو أخطاء واضحة.

منظمة العفو الدولية بوستولات

- الإعلانات -

لاحظ الباحثون أن الثقة المفرطة في تقنيات الذكاء الاصطناعي يمكن أن تؤثر سلبًا على رفاهية الناس. إن المجتمع الذي لديه القليل من الفهم لكيفية عمل خوارزميات الذكاء الاصطناعي في الواقع يميل إلى المبالغة في الثقة بها ، أو على العكس من ذلك ، لديه موقف سلبي تجاه المحتوى الذي تم إنشاؤه بواسطة نموذج معين ، على وجه الخصوص ، روبوتات المحادثة. بالنظر إلى هذه العوامل وغيرها ، يدعو فريق Garibay إلى وضع رفاهية الإنسان في قلب التفاعلات المستقبلية بين الذكاء الاصطناعي والبشر.

اقرأ أيضا: ChatGPT: دليل مستخدم بسيط

القانون الثاني: المسؤولية

المساءلة مصطلح يستمر في الظهور في عالم الذكاء الاصطناعي في سياق ما نستخدم التعلم الآلي من أجله ، وكيف يتم تطوير نماذج وخوارزميات الذكاء الاصطناعي وتدريبها بالضبط. يؤكد الفريق الدولي على أن تصميم وتطوير وتنفيذ الذكاء الاصطناعي يجب أن يتم حصريًا مع النوايا الحسنة.

منظمة العفو الدولية بوستولات

في رأيهم ، يجب النظر إلى المسؤولية ليس فقط في سياق تقني ، ولكن أيضًا في سياق قانوني وأخلاقي. يجب النظر إلى التكنولوجيا ليس فقط من وجهة نظر فعاليتها ، ولكن أيضًا في سياق استخدامها.

"مع إدخال تقنيات التعلم الآلي المتقدمة ، أصبح من المهم بشكل متزايد فهم كيفية اتخاذ القرار ومن المسؤول عنه”- أكتب الباحثين.

القانون الثالث: السرية

الخصوصية موضوع يرتد في كل خطاب حول التكنولوجيا. خاصة عندما تتم مناقشة كل شيء في الشبكات الاجتماعية. ومع ذلك ، فإن هذا مهم للغاية للذكاء الاصطناعي لأنه لا يوجد بدون قاعدة بيانات. وما هي قواعد البيانات؟

يصفها العلماء بأنها "تجريد من لبنات البناء الأساسية التي تشكل الطريقة التي نرى بها العالم". عادةً ما تكون هذه الكتل قيمًا عادية: الألوان والأشكال والقوام والمسافات والوقت. بينما ركز الذكاء الاصطناعي الضيق على هدف واحد ، مثل الدرجة التي يفتح عندها الغالق عند كثافة ضوء معينة ، يستخدم البيانات الموضوعية المتاحة للجمهور ، والذكاء الاصطناعي في التطبيقات الأوسع (هنا ، على سبيل المثال ، نماذج تحويل النص إلى صورة مثل Midjourney ، أو نماذج اللغة مثل ChatGPT) يمكن أن تستخدم بيانات حول الأشخاص وأنشأها. كما يجب ذكر المقالات الصحفية والكتب والرسوم التوضيحية والصور المنشورة على الإنترنت. يمكن لخوارزميات الذكاء الاصطناعي الوصول إلى كل شيء ، لأننا أعطيناها لهم. وإلا فلن يعرف شيئًا ولن يجيب على أي سؤال.

منظمة العفو الدولية بوستولات

تؤثر بيانات المستخدم بشكل أساسي على كل من الأشخاص الذين يتم جمع هذه البيانات عنهم والأشخاص الموجودين في النظام حيث سيتم تنفيذ خوارزميات الذكاء الاصطناعي.

لذلك ، يتعلق التحدي الثالث بالفهم الواسع للخصوصية وتوفير حقوق مثل الحق في البقاء بمفرده ، والحق في الحد من الوصول إلى الذات ، والحق في سرية الحياة الشخصية أو الأعمال التجارية ، والحق في التحكم الشخصي. المعلومات ، أي الحق في حماية شخصية الفرد وشخصيته وكرامته. يجب كتابة كل هذا في الخوارزميات ، وإلا فلن توجد الخصوصية ببساطة ، ويمكن استخدام خوارزميات الذكاء الاصطناعي في المخططات الاحتيالية وكذلك الجرائم الجنائية.

اقرأ أيضا: 7 أروع طرق لاستخدام ChatGPT

القانون الرابع: هيكل المشروع

يمكن أن يكون الذكاء الاصطناعي بسيطًا للغاية وذو غرض واحد ، ولكن في حالة النماذج الكبيرة ذات الطبيعة الواسعة والمتعددة المهام ، لا تكمن المشكلة في خصوصية البيانات فحسب ، بل أيضًا في بنية التصميم.

على سبيل المثال ، GPT-4 ، أحدث نموذج للذكاء الاصطناعي لشركة OpenAI ، على الرغم من حجمه وتأثيره على عالم الذكاء الاصطناعي (وما بعده) ، لا يحتوي على وثائق عامة بالكامل. بمعنى ، ليس لدينا فهم للأهداف النهائية للمطورين ، وما الذي يريدون تحقيقه في النتيجة النهائية. لذلك ، لا يمكننا إجراء تقييم كامل للمخاطر المرتبطة باستخدام نموذج الذكاء الاصطناعي هذا. من ناحية أخرى ، فإن GPT-3 ، الذي تم تدريبه على البيانات من منتدى 4chan ، هو نموذج لا ترغب بالتأكيد في التفاعل معه. يعد منتدى 4chan أحد أكثر الظواهر إثارة للاهتمام على الإنترنت. هذا مثال على الفوضى الكاملة المطلقة ، والتي لا تقتصر عمليا على أي إطار عمل. هذا هو المكان الذي تم فيه إنشاء مجموعات القرصنة مثل Anonymous أو LulzSec. إنه مصدر العديد من الميمات الأكثر شهرة ، ومكانًا لمناقشة الموضوعات المثيرة للجدل ونشر المزيد من الآراء المثيرة للجدل. على الرغم من أن لوحة الصور باللغة الإنجليزية تشير إلى أنه "قانوني حتى الآن" ، إلا أن هذا أمر مشكوك فيه إلى حد ما ، نظرًا لأن 4chan تتعامل أحيانًا مع وسائل الإعلام ، بما في ذلك المحتوى العنصري والنازي والمتحيز جنسيًا.

منظمة العفو الدولية بوستولات

- الإعلانات -

يريد فريق البروفيسور غاريباي أن يعمل كل نموذج من نماذج الذكاء الاصطناعي ضمن إطار محدد بوضوح. ليس فقط بسبب رفاهية الشخص الذي يتفاعل معه الذكاء الاصطناعي ، ولكن أيضًا بسبب القدرة على تقييم المخاطر المرتبطة باستخدام النموذج. يجب أن يتضمن هيكل أي مشروع احترام احتياجات وقيم ورغبات المجموعات الثقافية المختلفة وأصحاب المصلحة. يجب أن تركز عملية الإنشاء والتدريب والضبط الدقيق للذكاء الاصطناعي على رفاهية الإنسان ، ويجب أن يركز المنتج النهائي - نموذج الذكاء الاصطناعي - على تعزيز وتحسين إنتاجية المجتمع البشري نفسه. يجب أن يكون للنماذج التي لا يمكن تحديد المخاطر فيها وصول محدود أو متحكم فيه. لا ينبغي أن يشكلوا تهديدًا للبشرية ، بل على العكس من ذلك ، يساهمون في تنمية الإنسان والمجتمع ككل.

اقرأ أيضا: Twitter بين يدي إيلون ماسك - تهديد أم "تحسن"؟

القانون الخامس: الحكم والرقابة المستقلة

لقد غيرت خوارزميات الذكاء الاصطناعي العالم فعليًا في عام واحد فقط. يتم عرض Bard بواسطة Google وBing لأول مرة بواسطة Microsoft أثرت بشكل كبير على أسهم كلا العملاقين في البورصة. وبالمناسبة فقد ساهموا في نمو أسهم هذه الشركات حتى على خلفية الأسهم Apple. بدأ استخدام ChatGPT بنشاط من قبل طلاب المدارس ، فهم يتواصلون معه ويفحصونه ويطرحون الأسئلة. والأهم أن لديه القدرة على التعلم الذاتي وتصحيح أخطائه. حتى أن الذكاء الاصطناعي بدأ في العمل في حكومات بعض البلدان. هذا هو حال رئيس وزراء رومانيا ، نيكولاي تشوكا استأجرت افتراضية مساعد سيعلمه باحتياجات المجتمع. أي أن الذكاء الاصطناعي يلعب دورًا متزايد الأهمية في حياتنا.

منظمة العفو الدولية

بالنظر إلى الترابط المتزايد باستمرار بين الذكاء الاصطناعي والبشر والبيئة ، يرى العلماء أنه من الضروري إنشاء هيئات حاكمة وإشراف مستقل على تطورها. ستتحكم هذه الهيئات في دورة الحياة الكاملة للذكاء الاصطناعي: من الفكرة إلى التطوير والتنفيذ. ستحدد السلطات بشكل صحيح نماذج مختلفة من الذكاء الاصطناعي وتنظر في القضايا المتعلقة بالذكاء الاصطناعي وموضوعات الحياة الاجتماعية. أي أن الذكاء الاصطناعي يمكن أن يصبح موضوعًا لقضايا المحاكم ، وكذلك الدعاوى القضائية. على الرغم من أنه بالطبع ليس هو شخصيًا ، ولكن مطوريه.

اقرأ أيضا: كل شيء عن نيورالينك: بداية جنون السايبربانك؟

القانون السادس: تفاعل الإنسان مع الذكاء الاصطناعي

في برامج الذكاء الاصطناعي ، يمكن للجميع أن يجدوا شيئًا لأنفسهم: إنشاء نص ، واكتشاف المحتوى في الصور ، والإجابة على الأسئلة ، وإنشاء الصور ، والتعرف على الأشخاص في الصور ، وتحليل البيانات. هذه الاستخدامات المتعددة ليست مصدر قلق للأشخاص الذين يحاولون تكييف الذكاء الاصطناعي مع المعايير القانونية والأخلاقية. يخشى الكثيرون أن يتم إزاحتهم من سوق العمل بواسطة نماذج الذكاء الاصطناعي. لأن خوارزميات الذكاء الاصطناعي ستكون قادرة على فعل الشيء نفسه بشكل أسرع وأرخص وربما أفضل من أي شخص. في الوقت نفسه ، هناك أشخاص يعتمدون على الذكاء الاصطناعي في عملهم ، أي أن الذكاء الاصطناعي هو بالفعل مساعد لا غنى عنه لهم اليوم.

منظمة العفو الدولية

ولكن من الدراسات التي أشار إليها العلماء ، يتضح أن استبدال الناس بالعمالة الاصطناعية الرخيصة لا يزال بعيد المنال. على الرغم من ذلك ، فإنهم يصرون بالفعل على الحاجة إلى إنشاء تسلسل هرمي صارم للتفاعل بين البشر والذكاء الاصطناعي. في رأيهم ، يجب وضع البشر فوق الذكاء الاصطناعي. يجب إنشاء الذكاء الاصطناعي مع احترام القدرات المعرفية للشخص ، مع مراعاة عواطفه وتفاعلاته الاجتماعية وأفكاره والتخطيط والتفاعل مع الأشياء. وهذا يعني ، في جميع المواقف ، أن الشخص هو الذي يجب أن يقف فوق الذكاء الاصطناعي ، ويتحكم في السلوك والمحتوى الذي تم إنشاؤه بواسطة النموذج ، ويكون مسؤولاً عن ذلك. بكلمات بسيطة ، حتى أكثر الذكاء الاصطناعي تقدمًا يجب أن يطيع الشخص وألا يتجاوز ما هو مسموح به ، حتى لا يضر منشئه.

اقرأ أيضا: كيف تستخدم أوكرانيا نظام Starlink وتتكيف معه أثناء الحرب

исновки

نعم ، سيقول قائل إن العلماء لم يشروا إلى أي شيء مهم وجديد في تقريرهم. كان الجميع يتحدث عن هذا لفترة طويلة. ولكن من الضروري الآن وضع الذكاء الاصطناعي في إطار معين من القوانين. يشبه الوصول إلى GPT-4 الوصول إلى سكين بشكل أعمى. إنهم يخفون المعلومات الأساسية منا. غالبًا ما تذكرني جميع التطورات في الذكاء الاصطناعي ، ولا سيما مشروع ChatGPT من Open AI ، بتربية طفل صغير. في بعض الأحيان يبدو أن هذا طفل من أصل غريب. نعم ، أجنبي ، لكنه لا يزال طفلًا يتعلم ، ويخطئ ، ويتصرف أحيانًا بشكل غير لائق ، وسريع الانفعال ، كما يجادل والديه. على الرغم من أنه ينمو ويتطور بسرعة كبيرة.

منظمة العفو الدولية

قد لا تواكب الإنسانية تطورها ، وقد تخرج الأمور عن السيطرة. لذلك ، تحتاج البشرية بالفعل إلى فهم سبب تطويرنا لكل هذا ، لمعرفة الأهداف النهائية ، ولكي نكون "آباء مسؤولين" ، وإلا فإن "الطفل" يمكنه ببساطة تدمير "أبويه".

اقرأ أيضا: 

Yuri Svitlyk
Yuri Svitlyk
ابن جبال الكاربات، عبقري الرياضيات غير المعترف به، "المحامي"Microsoft، الإيثار العملي، اليسار واليمين
- الإعلانات -
اشتراك
يخطر حول
ضيف

0 التعليقات
المراجعات المضمنة
عرض كل التعليقات