Digital Tهينك Tank (DTT)

ستار تريك اليوم: قد لا تكون البشرية قادرة على التحكم في الذكاء الاصطناعي الفائق الذكاء؟

يعتقد مؤلفو دراسة نظرية حديثة أن البشرية قد لا تكون قادرة على التحكم في الذكاء الاصطناعي الفائق الذكاء (AI). علاوة على ذلك ، قد لا نعرف حتى أن لدينا هذا النوع من AI (ذكاء اصطناعي) قد صنع.
التقدم السريع لخوارزميات الذكاء الاصطناعي يحدث أمام أعيننا. تربح الآلات على البشر في لعبة البوكر ، وتغلب على الطيارين المقاتلين ذوي الخبرة في القتال الجوي ، وتتعلم من الألف إلى الياء من خلال التجربة والخطأ ، وتبشر بثورة كبيرة في الطب وعلوم الحياة ، وتقوم بالتشخيص وكذلك الأطباء ويمكن أن تفرق بين الطيور بشكل أفضل من البشر. هذا يوضح مدى سرعة التقدم في العديد من المجالات.

مصدر الصورة: Pixabay


مرجع حلقة Star Trek: عام / Androids - AI

مع هذا التقدم يأتي القلق بشأن ما إذا كنا سنتمكن من التحكم في الذكاء الاصطناعي. مخاوف أثيرت منذ عدة عقود على الأقل. لقد عرفنا الثلاثة المشهورين منذ عام 1942 قوانين الروبوتالذين فضلوا الكاتب اسحاق اسيموف أوجز في قصته القصيرة "The Game of Tag":

1) يجب ألا يتسبب الروبوت في إلحاق الأذى بشخص ما أو السماح بإلحاق الضرر به من خلال التقاعس عن العمل

2) يجب أن يطيع الروبوت أوامر الإنسان بشرط ألا يخالف القانون الأول

3) الروبوت يجب أن يحمي نفسه طالما أنه لا يخالف القانون الأول أو الثاني.

أضيف في وقت لاحق اسيموف أضاف قانون شامل 0: يجب ألا يسبب الروبوت ضررًا للبشرية أو يتسبب في ضرر بسبب الإغفالفي عام 2014 ، قام الفيلسوف نيك بوستروم ، مدير معهد مستقبل الإنسانية في جامعة أكسفورد ، بفحص كيف يمكن للذكاء الاصطناعي الفائق الذكاء أن يدمرنا ، وكيف يمكننا التحكم فيه ، ولماذا قد لا تعمل طرق التحكم المختلفة. حدد بوستروم مشكلتين في التحكم في الذكاء الاصطناعي. الأول هو التحكم في ما يمكن أن يفعله الذكاء الاصطناعي. على سبيل المثال ، يمكننا التحكم في ما إذا كان يجب الاتصال بالإنترنت. والثاني هو السيطرة على ما تريد القيام به. على سبيل المثال ، من أجل السيطرة عليه علينا أن نعلمه مبادئ التعايش السلمي مع البشر. كما أشار بوستروم ، من المرجح أن يكون الذكاء الاصطناعي الخارق قادرًا على التغلب على أي قيود نريد أن نضعها على ما يمكنه فعله. أما بالنسبة للمشكلة الثانية ، فإن بوستروم يشك فينا ذكاء اصطناعي فائق الذكاء يمكن أن تعلم أي شيء.

قرر الآن مانويل ألفونسيكا وفريقه من جامعة أوتونوما دي مدريد معالجة مشكلة التحكم في الذكاء الاصطناعي. ووصف نتائج عمله في مجلة بحوث الذكاء الاصطناعي.

لاحظ الإسبان أن أي خوارزمية من المفترض أن تضمن أن الذكاء الاصطناعي لا يؤذي الناس يجب أن تحاكي أولاً السلوك الذي قد يؤدي إلى إلحاق الضرر بشخص ما حتى تتمكن الآلة من التعرف عليه وإيقافه. ومع ذلك ، وفقًا للباحثين ، لن تتمكن أي خوارزمية من محاكاة سلوك الذكاء الاصطناعي وتحديد ما إذا كان من المحتمل أن يؤدي إجراء معين إلى إلحاق الضرر بالبشر أم لا. لقد تم بالفعل إثبات ذلك قانون أسيموف الأول هي مشكلة لا يمكن حسابها.
بالإضافة إلى ذلك ، فقد خلص الباحثون إلى أننا قد لا نعرف حتى أننا صنعنا آلة فائقة الذكاء. والسبب هو أن نظرية رايس، والتي تنص على أنه لا يمكنك تخمين نتيجة برنامج الكمبيوتر بمجرد النظر إلى الكود الخاص به.

لكن ألفونسيكا وزملائه لديهم أيضًا أخبار سارة. حسنًا ، لم يعد علينا القلق بشأن ما سيفعله الذكاء الاصطناعي الفائق الذكاء. في الواقع ، هناك ثلاثة قيود رئيسية على نوع البحث الذي يقوم به الإسبان. أولاً ، لن يظهر مثل هذا الذكاء الاصطناعي الفائق الذكاء إلا في غضون 200 عام. ثانيًا ، من غير المعروف ما إذا كان من الممكن حتى إنشاء هذا النوع من الذكاء الاصطناعي ، أي آلة ذكية في العديد من المجالات مثل البشر. وثالثًا ، حتى لو لم نتمكن من التحكم في الذكاء الاصطناعي الفائق الذكاء ، فلا يزال من الممكن التحكم في الذكاء الاصطناعي الفائق الذكاء ضمن نطاق ضيق.