Root Nationمقالاتالتقنياتمشروع OpenAI س*: ما هو ولماذا يعتبر المشروع مصدر قلق

مشروع OpenAI س*: ما هو ولماذا يعتبر المشروع مصدر قلق

-

غامض المشروع س* من OpenAI يثير القلق بين الخبراء. هل يمكن أن يكون خطيرًا حقًا على البشرية؟ ما هو المعروف عنه؟ بعد أن تم طرد سام ألتمان في البداية الأسبوع الماضي وكاد هو والفريق أن ينتقلوا إلى Microsoftثم رجع إلى محل عمله ( عنه كتبنا هنا)، OpenAI ظهر في الأخبار مرة أخرى. هذه المرة بسبب ما يسميه بعض الباحثين تهديدا محتملا للإنسانية. نعم، لقد قرأت ذلك بشكل صحيح، وهو تهديد للإنسانية.

إن الاضطراب الحقيقي في عالم التكنولوجيا كان سببه مشروع Q* - وهو مشروع غير معلن للذكاء الاصطناعي العام (AGI) - يُلفظ Q-Star. على الرغم من أن هذا المشروع لا يزال في مراحله الأولى، إلا أنه يعتبر رائدًا حقًا في تطورات الذكاء الاصطناعي العام. ومع ذلك، يرى البعض أنه يشكل خطرا على الإنسانية.

مشروع سري للذكاء الاصطناعي تم تطويره بواسطة مختبر الذكاء الاصطناعي الشهير OpenAI، لديه القدرة على إحداث ثورة في التكنولوجيا والمجتمع بشكل عام. ولكنه يثير أيضًا بعض الأسئلة الأخلاقية حول المخاطر. مع ظهور تفاصيل حول القدرات المذهلة لمشروع Q*، تظهر المزيد والمزيد من التكهنات حول ما يمكن أن يعنيه لمستقبل البشرية.

- الإعلانات -

مثير للاهتمام أيضًا: تاريخ OpenAI: ما كان عليه وما ينتظر الشركة

ما هو الذكاء العام الاصطناعي (AGI)؟

لفهم الضجة المحيطة بمشروع Q* (Q-Star)، دعونا نحاول أولاً أن نفهم ما هو مفهوم الذكاء العام الاصطناعي (AGI). في حين أن أنظمة الذكاء الاصطناعي الحالية تتفوق في مهام ضيقة ومحددة مثل لعب الشطرنج أو توليد الصور، يشير الذكاء الاصطناعي العام إلى الآلات التي يمكنها التعلم والتفكير على المستوى البشري في العديد من المجالات. أي أنه يمكنهم الدراسة مثل الأطفال الصغار في المدرسة، على سبيل المثال، أساسيات الرياضيات والكيمياء والأحياء وما إلى ذلك.

الذكاء الاصطناعي العام (AGI) هو نوع من الذكاء الآلي الذي يمكنه تقليد الذكاء أو السلوك البشري افتراضيًا، مع القدرة على التعلم وتطبيق تلك الإمكانية لحل مجموعة متنوعة من المشكلات. يُطلق على AGI أيضًا اسم الذكاء الاصطناعي القوي، أو الذكاء الاصطناعي الكامل، أو الذكاء الاصطناعي على مستوى الإنسان. يختلف الذكاء الاصطناعي العام عن الذكاء الاصطناعي الضعيف أو الضيق، والذي يكون قادرًا فقط على أداء مهام محددة أو متخصصة ضمن معايير معينة. ستكون ZHI قادرة على حل المشكلات المعقدة المختلفة بشكل مستقل في مجالات المعرفة المختلفة.

إن إنشاء الذكاء الاصطناعي هو المحور الرئيسي لأبحاث الذكاء الاصطناعي التي تجريها شركات مثل DeepMind وAnthropic. يعد CSI موضوعًا شائعًا جدًا في أدب الخيال العلمي وقد يشكل الأبحاث المستقبلية. يرى البعض أنه من الممكن إنشاء الاتحاد الدولي للدراجات في غضون سنوات أو عقود، بينما يرى آخرون أن الأمر قد يستغرق قرنًا أو أكثر. ولكن هناك من يعتقد أن هذا لن يتحقق أبدا. لقد شهد البعض بدايات URI في GPT-3، ولكن يبدو أنه لا يزال بعيدًا عن تلبية المعايير الأساسية.

يعتبر الباحثون أن إنشاء الذكاء العام الاصطناعي (AGI) هو الكأس المقدسة للذكاء الاصطناعي، وهي إمكانية نظرية استحوذت على خيالهم منذ فترة طويلة. لذلك، أحدث ظهور مشروع مثل OpenAI Project Q* صدىً كبيرًا في عالم أبحاث خوارزميات الذكاء الاصطناعي. على الرغم من أن الجميع يدرك أن هذه ليست سوى الخطوات الأولى، بشكل أعمى تقريبًا، نحو عالم يتمتع فيه الذكاء الاصطناعي بنفس القدرات التي يتمتع بها البشر، أو حتى أعلى.

- الإعلانات -

مثير للاهتمام أيضًا: كل شيء عن Microsoft مساعد الطيار: المستقبل أم الطريق الخطأ؟

ما هو المشروع س*؟

لا يعد Project Q* خوارزمية نموذجية لأنه نموذج ذكاء اصطناعي يقترب بشكل متزايد من نموذج الذكاء الاصطناعي العام (AGI). وهذا يعني أنه، على عكس ChatGPT، يُظهر Project Q* مهارات تفكير ومهارات معرفية أفضل مقارنةً بالخوارزميات الأخرى. يستجيب ChatGPT حاليًا للاستفسارات بناءً على كمية كبيرة من المواد الواقعية، ولكن مع AGI، سيتعلم نموذج الذكاء الاصطناعي التفكير والقدرة على التفكير والفهم بنفسه. من المعروف بالفعل أن مشروع Q* قادر على حل المشكلات الرياضية البسيطة التي لم تكن جزءًا من المادة التدريبية الخاصة به. يرى بعض الباحثين في هذا خطوة مهمة نحو إنشاء الذكاء الاصطناعي العام (AGI). يُعرّف OpenAI الذكاء الاصطناعي العام بأنه أنظمة ذكاء اصطناعي أكثر ذكاءً من البشر.

يدار تطوير مشروع Q* من قبل كبير العلماء في OpenAI إيليا سوتزكفير، وقد تم إثبات أساسه من قبل الباحثين جاكوب باخوتسكي وشمعون سيدور.

تعتبر قدرة الخوارزمية على حل المشكلات الرياضية بنفسها، حتى لو لم تكن هذه المشكلات جزءًا من مجموعة بيانات التدريب، بمثابة طفرة في مجال الذكاء الاصطناعي. ترتبط الخلافات في الفريق بشأن هذا المشروع بالإزالة المؤقتة للرئيس التنفيذي لشركة OpenAI Sam Altman. ومن المعروف أنه قبل إقالة ألتمان، أرسل مجموعة من الباحثين في الشركة خطابًا إلى مجلس الإدارة يحذرون فيه من اكتشاف الذكاء الاصطناعي الذي يمكن أن يشكل تهديدًا للإنسانية. تم الاستشهاد بهذه الرسالة، التي قيل إنها ناقشت خوارزمية Project Q*، كأحد العوامل التي أدت إلى إقالة ألتمان. ومع ذلك، فإن قدرات مشروع Q* والمخاطر المحتملة التي قد يشكلها ليست مفهومة تمامًا لأن التفاصيل غير معروفة. لم يتم نشر أي شيء لعامة الناس.

في الأساس، يعد Project Q* طريقة للتعلم المعزز خالية من النماذج وتبتعد عن النماذج التقليدية من خلال عدم الحاجة إلى معرفة مسبقة بالبيئة. وبدلاً من ذلك، فإنه يتعلم من خلال الخبرة، ويكيف الإجراءات بناءً على المكافآت والعقوبات. ويعتقد الخبراء الفنيون أن مشروع Q* سيكون قادرًا على اكتساب قدرات متميزة من خلال اكتساب قدرات مشابهة للقدرات المعرفية البشرية.

ومع ذلك، فإن هذه الميزة هي الأكثر إثارة للإعجاب في النموذج الجديد للذكاء الاصطناعي الذي يقلق الباحثين والنقاد ويثير مخاوفهم بشأن التطبيقات الواقعية للتكنولوجيا والمخاطر الأساسية التي تنطوي عليها. ما الذي يخاف منه العلماء والباحثون؟ دعونا معرفة ذلك.

مثير للاهتمام أيضًا: كيفية تحديث أجهزتك المنزلية لدعم Wi-Fi 6

إنهم خائفون من المجهول

لقد كان البشر دائما خائفين من المجهول، الذي لا يمكن معرفته. هذا هو جوهر الإنسان، وهو سمة من سمات شخصيتنا وطريقة حياتنا.

- الإعلانات -

علم عالم التكنولوجيا بمشروع Q* في نوفمبر 2023 بعد رويترز ذكرت حول رسالة داخلية كتبها باحثون معنيون في OpenAI. كان محتوى الرسالة غامضًا، لكن ورد أنها قامت بتحليل جدي لقدرات المشروع Q*. وكما ذكرت أعلاه، هناك تكهنات بأن هذه الرسالة هي التي أدت إلى استقالة سام التمان.

وقد أدى هذا الاكتشاف المذهل إلى ظهور فرضيات مختلفة فيما يتعلق بطبيعة المشروع Q*. اقترح العلماء أن هذا قد يكون نموذجًا ثوريًا للغة الطبيعية للذكاء الاصطناعي. نوع من مخترع الخوارزميات الجديدة التي ستنشئها لأشكال أخرى من الذكاء الاصطناعي، أو لشيء مختلف تمامًا في هذا المجال.

وقد أثارت تعليقات ألتمان الاستفزازية حول الذكاء الاصطناعي العام باعتباره "الموظف العادي" بالفعل مخاوف بشأن الأمن الوظيفي والتوسع الذي لا يمكن وقفه لتأثير الذكاء الاصطناعي. تُعرف هذه الخوارزمية الغامضة بأنها علامة فارقة في تطوير الذكاء العام الاصطناعي (AGI). ومع ذلك، يدرك الجميع أن هذا الإنجاز باهظ الثمن. ولا يتعلق الأمر بالمال الآن. إن مستوى المهارات المعرفية التي وعد بها نموذج الذكاء الاصطناعي الجديد يحمل في طياته عدم اليقين. يعد علماء OpenAI بأن الذكاء الاصطناعي سيكون له تفكير على مستوى الإنسان. وهذا يعني أننا لا نستطيع معرفة أشياء كثيرة والتنبؤ بالعواقب. وكلما زاد المجهول، أصبح من الصعب الاستعداد للسيطرة عليه أو إصلاحه. أي أن الخوارزمية الجديدة قادرة على التحسين والتطوير الذاتي. لقد رأينا هذا بالفعل في مكان ما ...

مثير للاهتمام أيضًا: Windows 12: ماذا سيكون نظام التشغيل الجديد؟

تفاصيل مذهلة حول قدرات Project Q*

عندما بدأت المزيد من المعلومات في الظهور، صدمت العديد من الباحثين. تشير الدلائل المبكرة إلى أن مشروع Q* يتمتع بموهبة مذهلة في الرياضيات. على عكس الآلة الحاسبة التي تجري حسابات ميكانيكية، من المفترض أن يستخدم المشروع Q* المنطق والتفكير لحل المسائل الرياضية المعقدة. تشير هذه القدرة الرياضية على التعميم إلى تطور ذكاء واسع النطاق.

سيكون التدريب الذاتي لمشروع Q*، بدون مجموعات البيانات المحددة المستخدمة لتدريب أنظمة الذكاء الاصطناعي النموذجية، بمثابة خطوة كبيرة إلى الأمام. لا يزال من غير المعروف ما إذا كان Project Q* قد أتقن أي مهارات أخرى. لكن قدراته الرياضية مذهلة جدًا في حد ذاتها لدرجة أنها تربك حتى الباحثين ذوي الخبرة.

اقرأ أيضا: مشروع الدماغ البشري: محاولة لتقليد الدماغ البشري

طريق مشروع Q * إلى الهيمنة؟

هناك سيناريوهات متفائلة ومتشائمة في هذا الشأن. سيقول المتفائلون أن مشروع Q* يمكن أن يكون الشرارة التي تؤدي إلى طفرة تكنولوجية. ومع تحسن النظام ذاتيًا بشكل متكرر، يمكن لذكائه الخارق أن يساعد في حل بعض أهم المشكلات التي تواجه البشرية، بدءًا من تغير المناخ وحتى السيطرة على الأمراض. يمكن لمشروع Q* أتمتة العمل الممل وتوفير وقت فراغنا لأنشطة أخرى.

على الرغم من وجود العديد من الخيارات المتشائمة. في بعض الأحيان، تكون معقولة جدًا ولها معنى معين.

فقدان الوظائف

التحولات السريعة في تطوير التكنولوجيا يمكن أن تتجاوز التكيف الفردي للناس. سيؤدي ذلك إلى خسارة جيل أو أكثر لن يتمكن من اكتساب المهارات أو المعرفة اللازمة للتكيف مع الواقع الجديد. وهذا يعني بدوره أن عددًا أقل من الأشخاص سيكونون قادرين على الاحتفاظ بوظائفهم. سيتم تنفيذه بدلاً من ذلك بواسطة الآلات والأنظمة الآلية والروبوتات. ومع ذلك، فإن الإجابة ليست واضحة تمامًا عندما يتعلق الأمر بالمتخصصين المؤهلين. بالإضافة إلى ذلك، قد تظهر مهن جديدة تتعلق على وجه التحديد بتطوير خوارزميات الذكاء الاصطناعي. لكن لا تزال هناك مخاطر، وليس من حق الإنسانية أن تتجاهلها.

خطر القوة غير المنضبطة

إذا وقع نظام ذكاء اصطناعي قوي مثل Project Q* في أيدي أصحاب النوايا الشريرة، فإنه يخاطر بعواقب كارثية على البشرية. حتى بدون نية خبيثة محتملة، فإن مستوى اتخاذ القرار في مشروع Q* يمكن أن يؤدي إلى نتائج ضارة، مما يؤكد الأهمية الحاسمة للتقييم الدقيق لتطبيقه.

إذا تم تحسين مشروع Q* بشكل سيئ لتلبية الاحتياجات البشرية، فقد يتسبب في ضرر بسبب قدرته على تعظيم بعض المقاييس التعسفية. أو قد يكون لها بعد سياسي، مثل استخدامها لمراقبة الدولة أو القمع. سيساعد النقاش المفتوح حول تحليل تأثير مشروع Q* على تحديد السيناريوهات المحتملة لتطوير ZHI.

هل نحن في مواجهة "الإنسان مقابل الآلة"؟

لقد خلقت هوليوود بالفعل العديد من السيناريوهات لمثل هذه المواجهة في أفلامها. نتذكر جميعًا SkyNet الشهيرة وعواقب هذا الاكتشاف. ربما يجب على باحثي OpenAI مشاهدة هذا الفيلم مرة أخرى؟

تحتاج الإنسانية إلى قبول الإشارات والتحديات والاستعداد لما قد يحدث. قد يصبح نموذج الذكاء الاصطناعي القادر على التفكير مثل الإنسان عدوًا لنا يومًا ما. قد يجادل الكثيرون بأن العلماء في المستقبل سيعرفون بالضبط كيفية إبقاء الوضع تحت السيطرة. ولكن عندما يتعلق الأمر بالآلات، لا يمكنك استبعاد احتمالية أنها ستحاول السيطرة على البشر تمامًا.

مثير للاهتمام أيضًا: ليس كل ما نسميه الذكاء الاصطناعي هو في الواقع ذكاء اصطناعي. إليك ما تحتاج إلى معرفته

لماذا OpenAI صامت؟

على الرغم من جنون الاهتمام العام بمشروع Q*، فإن إدارة OpenAI تلتزم الصمت بشأن تفاصيل الخوارزمية. لكن التسريب الداخلي يظهر توترات متزايدة في المختبر بشأن الأولويات وانفتاح التطورات. في حين أن العديد من المطلعين على OpenAI يدعمون إنشاء مشروع Q*، يرى النقاد أن الشفافية قد تراجعت لتسريع التقدم العلمي بأي ثمن. ويشعر بعض الباحثين بالقلق من منح قوة لا تصدق للأنظمة التي لا تتطابق أهدافها بالضرورة مع القيم والأخلاق الإنسانية. ويعتقد هؤلاء الباحثون أن المناقشات حول الرقابة والمساءلة أصبحت صامتة بشكل خطير. أنها تتطلب المزيد من الدعاية والتفاصيل.

بصفتهم مبدعي مشروع Q*، يجب على OpenAI أن يفهموا أن لديهم تقنية يمكنها إما توسيع إمكانيات تنمية المجتمع بشكل كبير، أو تدميره بلا رحمة. وتستحق مثل هذه الابتكارات المهمة قدراً أعظم من الشفافية من أجل بناء ثقة الجمهور. ويتعين على أي متنبئ بعصر الآلة أن يزن المخاطر بعناية إلى جانب الفوائد. ويحتاج مطورو مشروع Q* إلى إظهار ما يكفي من الحكمة والاهتمام لتوجيه المجتمع بأمان إلى عصر جديد من الذكاء الاصطناعي العام الذي قد يأتي في وقت أقرب مما نتخيله.

لكي يكون الذكاء الاصطناعي العام مفيدًا وآمنًا للبشرية، يجب التأكد من أنه يعمل بشكل آمن وأخلاقي ووفقًا لقيم وأهداف الإنسانية. ويتطلب ذلك تطوير وتنفيذ الإجراءات التنظيمية والمعايير والقواعد والبروتوكولات المناسبة التي من شأنها التحكم وتقييد تصرفات وسلوك CSI. وبالإضافة إلى ذلك، يجب القضاء على التهديدات والمخاطر المحتملة المرتبطة بالانتهاكات والحوادث وعدم التوافق والتلاعب والصراعات التي يمكن أن تؤدي إلى تدمير البشرية. وفي الوقت نفسه، المستثمرين و Microsoft والانتظار بفارغ الصبر لمنتج قابل للتسويق يمكن أن يدر الربح، وهو ما يتعارض بلا شك مع ضرورة التصرف بمسؤولية. دعونا نأمل أن يسود المنطق السليم.

اقرأ أيضا: