الخطر الوجودي من الذكاء العام الاصطناعي
جزء من سلسلة على |
الذكاء الاصطناعي |
---|
الخطر الوجودي من الذكاء الاصطناعي العام هو الفرضية القائلة بأن التقدم الكبير في الذكاء الاصطناعي العام (AGI) يمكن أن يؤدي في يوم من الأيام إلى انقراض الإنسان أو كارثة عالمية أخرى غير قابلة للاسترداد . [1] [2] [3] يقال إن الجنس البشري يهيمن حاليًا على الأنواع الأخرى لأن دماغ الإنسان لديه بعض القدرات المميزة التي تفتقر إليها الحيوانات الأخرى. إذا تجاوز الذكاء الاصطناعي البشرية في الذكاء العام وأصبح " فائق الذكاء " ، فقد يصبح من الصعب أو المستحيل على البشر التحكم فيه. تماما مثل مصير الغوريلا الجبليةيعتمد على حسن نية الإنسان ، لذلك قد يعتمد مصير البشرية على أفعال الذكاء الخارق للآلة في المستقبل. [4]
تتم مناقشة احتمال حدوث هذا النوع من السيناريوهات على نطاق واسع ، ويتوقف جزئيًا على السيناريوهات المختلفة للتقدم المستقبلي في علوم الكمبيوتر. [5] بمجرد أن أصبحت المجال الحصري للخيال العلمي ، بدأت المخاوف بشأن الذكاء الخارق تصبح سائدة في عام 2010 ، وانتشرت من قبل الشخصيات العامة مثل ستيفن هوكينج ، وبيل جيتس ، وإيلون ماسك . [6]
أحد مصادر القلق هو أن التحكم في آلة فائقة الذكاء ، أو غرسها بقيم متوافقة مع الإنسان ، قد يكون مشكلة أصعب مما يفترض بسذاجة. يعتقد العديد من الباحثين أن الذكاء الخارق سوف يقاوم بشكل طبيعي محاولات إيقافه أو تغيير أهدافه - وهو مبدأ يسمى التقارب الأداتي - وأن البرمجة المسبقة للذكاء الخارق بمجموعة كاملة من القيم الإنسانية ستثبت أنها مهمة فنية صعبة للغاية. [1] [7] [8] في المقابل ، يجادل المشككون مثل عالم الكمبيوتر Yann LeCun بأن الآلات فائقة الذكاء لن تكون لديها رغبة في الحفاظ على نفسها. [9]
المصدر الثاني للقلق هو أن " انفجار استخباراتي " مفاجئ وغير متوقع قد يفاجئ الجنس البشري غير المستعد. للتوضيح ، إذا كان الجيل الأول من برنامج كمبيوتر قادرًا على المطابقة على نطاق واسع لفعالية باحث الذكاء الاصطناعي قادرًا على إعادة كتابة خوارزمياته ومضاعفة سرعته أو قدراته في ستة أشهر ، فمن المتوقع أن يستغرق برنامج الجيل الثاني ثلاثة أشهر تقويمية لأداء جزء مماثل من العمل. في هذا السيناريو ، يستمر الوقت لكل جيل في الانكماش ، ويخضع النظام لعدد كبير غير مسبوق من الأجيال من التحسين في فترة زمنية قصيرة ، والقفز من الأداء دون البشري في العديد من المجالات إلى الأداء الخارق في جميع المجالات ذات الصلة. [1] [7] تجريبيًا ، أمثلة مثليُظهر AlphaZero في مجال Go أن أنظمة الذكاء الاصطناعي يمكن أن تتطور أحيانًا من قدرة ضيقة على المستوى البشري لتضييق القدرة الخارقة بسرعة شديدة. [10]
التاريخ
كان الروائي صمويل بتلر أحد أوائل المؤلفين الذين أعربوا عن قلقهم الجاد من أن الآلات المتقدمة للغاية قد تشكل مخاطر وجودية على البشرية ، والذي كتب ما يلي في مقالته عام 1863 داروين بين الآلات : [11]
النتيجة هي ببساطة مسألة وقت ، ولكن سيأتي الوقت الذي ستحكم فيه الآلات السيادة الحقيقية على العالم وسكانه هو ما لا يمكن لأي شخص لديه عقل فلسفي حقيقي أن يسأله للحظة.
في عام 1951 ، كتب عالم الكمبيوتر آلان تورينج مقالًا بعنوان " الآلات الذكية ، نظرية هرطقية" ، اقترح فيه أن الذكاء الاصطناعي العام من المرجح أن "يسيطر" على العالم حيث أصبح أكثر ذكاءً من البشر:
لنفترض الآن ، من أجل الجدل ، أن الآلات [الذكية] هي إمكانية حقيقية ، وننظر إلى عواقب بنائها ... لن يكون هناك شك في موت الآلات ، وسيكونون قادرين على التحدث مع بعضهم البعض لشحذ ذكائهم. لذلك ، في مرحلة ما ، يجب أن نتوقع أن تتولى الآلات زمام الأمور ، بالطريقة المذكورة في "Erewhon" لصموئيل بتلر. [12]
أخيرًا ، في عام 1965 ، ابتكر IJ Good المفهوم المعروف الآن باسم "انفجار استخباراتي" ؛ وذكر أيضًا أن المخاطر لم تُقدَّر بأقل من قيمتها: [13]
دع الآلة فائقة الذكاء تُعرَّف بأنها آلة يمكنها تجاوز جميع الأنشطة الفكرية لأي رجل مهما كان ذكيًا. نظرًا لأن تصميم الآلات هو أحد هذه الأنشطة الفكرية ، يمكن لآلة فائقة الذكاء أن تصمم آلات أفضل ؛ عندها سيكون هناك بلا شك "انفجار استخباراتي" ، وستترك ذكاء الإنسان بعيدًا. وهكذا فإن أول آلة فائقة الذكاء هي آخر اختراع يحتاج الإنسان إلى صنعه على الإطلاق ، بشرط أن تكون الآلة سهلة الانقياد بما يكفي لإخبارنا بكيفية إبقائها تحت السيطرة. من الغريب أن هذه النقطة نادراً ما تُطرح خارج نطاق الخيال العلمي. من المفيد أحيانًا أن نأخذ الخيال العلمي على محمل الجد. [14]
عبّرت تصريحات عرضية من علماء مثل مارفن مينسكي [15] و IJ Good نفسه [16] عن مخاوف فلسفية من أن الذكاء الخارق يمكن أن يسيطر على زمام الأمور ، لكنه لا يحتوي على أي دعوة للعمل. في عام 2000 ، كتب عالم الكمبيوتر والمؤسس المشارك لشركة صن ، بيل جوي ، مقالًا مؤثرًا بعنوان " لماذا لا يحتاج المستقبل إلينا " ، حدد الروبوتات فائقة الذكاء باعتبارها خطرًا عالي التقنية على بقاء الإنسان ، جنبًا إلى جنب مع التكنولوجيا النانوية والطحالب الحيوية المهندسة. [17]
في عام 2009 ، حضر الخبراء مؤتمرًا خاصًا استضافته جمعية النهوض بالذكاء الاصطناعي (AAAI) لمناقشة ما إذا كانت أجهزة الكمبيوتر والروبوتات قادرة على اكتساب أي نوع من الاستقلالية ، ومقدار هذه القدرات التي قد تشكل تهديدًا أو خطرًا. وأشاروا إلى أن بعض الروبوتات قد اكتسبت أشكالًا مختلفة من الاستقلالية شبه الذاتية ، بما في ذلك القدرة على العثور على مصادر الطاقة بأنفسهم والقدرة على اختيار الأهداف بشكل مستقل للهجوم بالأسلحة. كما أشاروا إلى أن بعض فيروسات الكمبيوتر يمكنها التهرب من القضاء عليها وحققت "ذكاء الصرصور". وخلصوا إلى أن الوعي الذاتي كما هو موضح في الخيال العلمي ربما يكون غير مرجح ، لكن هناك مخاطر ومزالق أخرى محتملة. اوقات نيويوركلخص وجهة نظر المؤتمر على النحو التالي: "نحن بعيدون جدًا عن هال ، الكمبيوتر الذي تولى قيادة سفينة الفضاء في عام 2001: رحلة فضائية ". [18]
في عام 2014 ، أثار نشر كتاب نيك بوستروم الذكاء الخارق قدرًا كبيرًا من النقاش العام والنقاش. [19] بحلول عام 2015 ، كانت الشخصيات العامة مثل الفيزيائيين ستيفن هوكينج والحائز على جائزة نوبل فرانك ويلتشيك ، وعلماء الكمبيوتر ستيوارت جيه راسل ورومان يامبولسكي ، ورجال الأعمال إيلون ماسك وبيل جيتس ، يعبرون عن قلقهم بشأن مخاطر الذكاء الخارق. [20] [21] [22] [23] في أبريل 2016 ، نيتشرمحذّرًا: "يمكن للآلات والروبوتات التي تتفوق على البشر في جميع المجالات أن تتحسن ذاتيًا خارج نطاق سيطرتنا - وقد لا تتوافق مصالحهم مع اهتماماتنا". [24]
في عام 2020 ، نشر بريان كريستيان The Alignment Problem (مشكلة المحاذاة ) ، والتي توضح بالتفصيل تاريخ التقدم في محاذاة الذكاء الاصطناعي حتى الآن. [25]
حجة عامة
الصعوبات الثلاث
الذكاء الاصطناعي: نهج حديث ، وهو الكتاب القياسي للطلبة الجامعيين للذكاء الاصطناعي ، [26] [27] يقيّم أن الذكاء الخارق "قد يعني نهاية الجنس البشري". [1] تنص على: "تقريبًا أي تقنية لديها القدرة على إحداث ضرر في الأيدي الخطأ ، ولكن مع [الذكاء الخارق] ، لدينا مشكلة جديدة تتمثل في أن الأيدي الخطأ قد تنتمي إلى التكنولوجيا نفسها." [1] حتى إذا كان لدى مصممي النظام نوايا حسنة ، فهناك صعوبتان مشتركتان في أنظمة الكمبيوتر التي تعمل بالذكاء الاصطناعي وأنظمة الكمبيوتر بخلاف الذكاء الاصطناعي: [1]
- قد يحتوي تطبيق النظام على أخطاء روتينية غير ملحوظة في البداية ولكنها كارثية. القياس هو المجسات الفضائية: على الرغم من المعرفة بأن الأخطاء في المسابير الفضائية باهظة الثمن يصعب إصلاحها بعد الإطلاق ، لم يتمكن المهندسون تاريخيًا من منع حدوث أخطاء كارثية. [10] [28]
- بغض النظر عن مقدار الوقت المخصص لتصميم ما قبل النشر ، غالبًا ما تؤدي مواصفات النظام إلى سلوك غير مقصود في المرة الأولى التي يواجه فيها سيناريو جديدًا. على سبيل المثال ، تصرف Tay من Microsoft بشكل غير عدواني أثناء اختبار ما قبل النشر ، ولكن كان من السهل جدًا أن يتعرض للطعن في السلوك العدواني عند التفاعل مع مستخدمين حقيقيين. [9]
تضيف أنظمة الذكاء الاصطناعي بشكل فريد صعوبة ثالثة: المشكلة التي حتى مع وجود المتطلبات "الصحيحة" ، والتنفيذ الخالي من الأخطاء ، والسلوك الجيد الأولي ، قد تؤدي قدرات "التعلم" الديناميكية لنظام الذكاء الاصطناعي إلى "تطوره إلى نظام ذي سلوك غير مقصود" ، حتى بدون ضغوط السيناريوهات الخارجية الجديدة غير المتوقعة. قد يفسد الذكاء الاصطناعي جزئيًا محاولة تصميم جيل جديد من نفسه ويخلق بطريق الخطأ ذكاءً اصطناعيًا جديدًا أقوى منه ، لكنه لم يعد يحافظ على القيم الأخلاقية المتوافقة مع الإنسان والمبرمجة مسبقًا في الذكاء الاصطناعي الأصلي. لكي يكون الذكاء الاصطناعي الذي يتحسن ذاتيًا آمنًا تمامًا ، لن يحتاج فقط إلى أن يكون "خاليًا من الأخطاء" ، ولكن يجب أن يكون قادرًا على تصميم أنظمة لاحقة تكون أيضًا "خالية من الأخطاء". [1] [29]
كل هذه الصعوبات الثلاث تصبح كوارث وليست مضايقات في أي سيناريو حيث يتنبأ الذكاء الخارق المصنف على أنه "معطل" بشكل صحيح أن البشر سيحاولون إيقافه ، وينشرون ذكاءه الخارق بنجاح لخداع مثل هذه المحاولات ، ما يسمى بـ "المنعطف الغادر" . [30]
نقلاً عن التطورات الرئيسية في مجال الذكاء الاصطناعي وإمكانية أن يكون للذكاء الاصطناعي فوائد أو تكاليف هائلة طويلة الأجل ، نصت الرسالة المفتوحة لعام 2015 حول الذكاء الاصطناعي على ما يلي:
يجعل التقدم في أبحاث الذكاء الاصطناعي الوقت مناسبًا لتركيز البحث ليس فقط على جعل الذكاء الاصطناعي أكثر قدرة ، ولكن أيضًا على تعظيم الفائدة المجتمعية للذكاء الاصطناعي. حفزت هذه الاعتبارات اللجنة الرئاسية AAAI 2008-09 حول مستقبلات الذكاء الاصطناعي طويلة الأجل وغيرها من المشاريع المتعلقة بتأثيرات الذكاء الاصطناعي ، وتشكل توسعًا كبيرًا في مجال الذكاء الاصطناعي نفسه ، والذي ركز حتى الآن إلى حد كبير على التقنيات المحايدة فيما يتعلق غرض. نوصي بإجراء بحث موسع يهدف إلى ضمان أن تكون أنظمة الذكاء الاصطناعي ذات القدرات المتزايدة قوية ومفيدة: يجب أن تفعل أنظمة الذكاء الاصطناعي لدينا ما نريدها أن تفعله.
تم التوقيع على هذه الرسالة من قبل عدد من الباحثين البارزين في مجال الذكاء الاصطناعي في الأوساط الأكاديمية والصناعية ، بما في ذلك رئيس AAAI توماس ديتريتش ، وإريك هورفيتز ، وبارت سلمان ، وفرانشيسكا روسي ، ويان لوكون ، ومؤسسو Vicarious و Google DeepMind . [31]
التقييم والحجج الأخرى
قد تكون الآلة فائقة الذكاء غريبة على البشر مثل عمليات التفكير البشري بالنسبة للصراصير . قد لا يكون لمثل هذه الآلة مصالح البشرية الفضلى ؛ ليس من الواضح أنها ستهتم حتى برفاهية الإنسان على الإطلاق. إذا كان الذكاء الاصطناعي الخارق ممكنًا ، وإذا كان من الممكن أن تتعارض أهداف الذكاء الخارق مع القيم الإنسانية الأساسية ، فإن الذكاء الاصطناعي يشكل خطر انقراض الإنسان. يمكن لـ "الذكاء الخارق" (نظام يتجاوز قدرات البشر في كل مسعى ذي صلة) أن يتفوق على البشر في أي وقت تتعارض أهدافه مع الأهداف البشرية ؛ لذلك ، ما لم يقرر الذكاء الخارق السماح للبشرية بالتعايش ، فإن أول ذكاء خارق يتم إنشاؤه سيؤدي حتما إلى انقراض الإنسان. [4] [32]
لا يوجد قانون فيزيائي يمنع الجسيمات من التنظيم بطرق تؤدي حتى عمليات حسابية أكثر تقدمًا من ترتيبات الجسيمات في أدمغة الإنسان ؛ لذلك ، الذكاء الخارق ممكن ماديًا. [21] [22] بالإضافة إلى التحسينات الخوارزمية المحتملة على أدمغة البشر ، يمكن أن يكون الدماغ الرقمي أكبر بكثير وأسرع من دماغ الإنسان ، والذي كان مقيدًا في الحجم بالتطور ليكون صغيرًا بما يكفي ليلائم قناة الولادة . [10] قد يؤدي ظهور الذكاء الخارق ، في حالة حدوثه أو عند حدوثه ، إلى مفاجأة الجنس البشري ، خاصةً إذا حدث نوع من الانفجار الاستخباراتي . [21] [22]
تُظهر أمثلة مثل الحساب و Go أن الآلات قد وصلت بالفعل إلى مستويات خارقة من الكفاءة في مجالات معينة ، وأن هذه الكفاءة الخارقة يمكن أن تتبع بسرعة بعد تحقيق أداء مساوٍ للإنسان. [10]يمكن أن يحدث سيناريو انفجار استخباراتي افتراضي على النحو التالي: يكتسب الذكاء الاصطناعي قدرة على مستوى الخبراء في بعض مهام هندسة البرمجيات الرئيسية. (قد تفتقر مبدئيًا إلى القدرات البشرية أو القدرات الخارقة في مجالات أخرى غير ذات صلة مباشرة بالهندسة.) نظرًا لقدرتها على تحسين خوارزمياتها بشكل متكرر ، يصبح الذكاء الاصطناعي سريعًا فوق طاقة البشر ؛ تمامًا كما يمكن للخبراء البشريين في نهاية المطاف التغلب بشكل خلاق على "العوائد المتناقصة" من خلال نشر القدرات البشرية المختلفة للابتكار ، كذلك يمكن للذكاء الاصطناعي على مستوى الخبراء استخدام إمكانيات على غرار الإنسان أو قدراته الخاصة بالذكاء الاصطناعي للتشغيل من خلال اختراقات إبداعية جديدة. [33]يمتلك الذكاء الاصطناعي بعد ذلك ذكاءً يفوق بكثير ذكاء العقول البشرية اللامعة والأكثر موهبة في كل مجال ذي صلة تقريبًا ، بما في ذلك الإبداع العلمي والتخطيط الاستراتيجي والمهارات الاجتماعية. مثلما يعتمد بقاء الغوريلا حاليًا على القرارات البشرية ، كذلك يعتمد بقاء الإنسان على قرارات وأهداف الذكاء الاصطناعي الخارق. [4] [32]
تقريبا أي ذكاء اصطناعي ، بغض النظر عن هدفه المبرمج ، يفضل بعقلانية أن يكون في وضع لا يستطيع فيه أي شخص آخر إيقاف تشغيله دون موافقته: سوف يكتسب الذكاء الخارق بطبيعة الحال الحفاظ على الذات كهدف فرعي بمجرد أن يدرك أنه لا يمكنه تحقيقه. الهدف إذا تم إيقافه. [34] [35] [36]لسوء الحظ ، فإن أي تعاطف مع البشر المهزومين الذين لم يعد تعاونهم ضروريًا سيكون غائبًا في الذكاء الاصطناعي ، ما لم يكن مبرمجًا مسبقًا بطريقة ما. لن يكون للذكاء الاصطناعي الفائق الدافع الطبيعي لمساعدة البشر ، لنفس السبب الذي يجعل البشر ليس لديهم رغبة طبيعية في المساعدة أنظمة الذكاء الاصطناعي التي لا فائدة منها بعد الآن. (تشبيه آخر هو أنه يبدو أن لدى البشر رغبة طبيعية قليلة في الخروج عن طريقهم لمساعدة الفيروسات أو النمل الأبيض أو حتى الغوريلا.) بمجرد توليه المسؤولية ، لن يكون لدى الذكاء الخارق حافزًا كبيرًا للسماح للبشر بالركض بحرية واستهلاك الموارد التي يمكن للذكاء الخارق بدلاً من ذلك استخدامه لبناء أنظمة حماية إضافية لنفسه "لمجرد أن يكون في الجانب الآمن" أو لبناء أجهزة كمبيوتر إضافية لمساعدته على حساب أفضل طريقة لتحقيق أهدافه. [1] [9][34]
وهكذا ، تستنتج الحجة ، من المحتمل أن انفجارًا استخباراتيًا سيصطاد يومًا ما البشرية غير مستعدة ، وأن مثل هذا الانفجار الاستخباري غير المستعد قد يؤدي إلى انقراض الإنسان أو مصير مشابه. [4]
السيناريوهات الممكنة
اقترح بعض العلماء سيناريوهات افتراضية تهدف إلى توضيح بعض مخاوفهم بشكل ملموس.
في الذكاء الخارق ، نيك بوستروميعرب عن قلقه من أنه حتى إذا تبين أن الجدول الزمني للذكاء الخارق يمكن التنبؤ به ، فقد لا يتخذ الباحثون احتياطات أمان كافية ، ويرجع ذلك جزئيًا إلى "[أنه] يمكن أن يكون الأمر كذلك عندما يكون الغبي والأذكى آمنًا ؛ ولكن عندما يكون الذكاء والذكاء أكثر خطورة ". يقترح بوستروم سيناريو يصبح فيه الذكاء الاصطناعي أكثر قوة على مدى عقود. يشوب الانتشار الواسع في البداية حوادث عرضية - تنحرف حافلة ذاتية القيادة في المسار القادم ، أو تطلق طائرة عسكرية بدون طيار النار على حشد من الأبرياء. يدعو العديد من النشطاء إلى تشديد الرقابة والتنظيم ، ويتوقع البعض حتى وقوع كارثة وشيكة. لكن مع استمرار التطور ، ثبت خطأ النشطاء. نظرًا لأن الذكاء الاصطناعي في السيارات أصبح أكثر ذكاءً ، فإنه يتعرض لحوادث أقل ؛ نظرًا لأن الروبوتات العسكرية تحقق استهدافًا أكثر دقة ، فإنها تسبب أضرارًا جانبية أقل. بناءً على البيانات ، استنتج العلماء عن طريق الخطأ درسًا واسعًا - كلما كان الذكاء الاصطناعي أكثر ذكاءً ، كان أكثر أمانًا. "وهكذا نذهب بجرأة - إلى السكاكين الدوارة" ، حيث يأخذ الذكاء الاصطناعي الفائق "منعطفًا غادرًا" ويستغل ميزة إستراتيجية حاسمة.[4]
في كتاب Max Tegmark لعام 2017 Life 3.0 ، أنشأ "فريق أوميغا" التابع للشركة ذكاءً اصطناعيًا قويًا للغاية قادرًا على تحسين كود المصدر الخاص به بشكل معتدل في عدد من المجالات ، ولكن بعد نقطة معينة ، يختار الفريق التقليل من قدرة الذكاء الاصطناعي علنًا ، تفاديا للتنظيم أو مصادرة المشروع. من أجل السلامة ، يحتفظ الفريق بالذكاء الاصطناعي في صندوق حيث يكون في الغالب غير قادر على التواصل مع العالم الخارجي ، ويكلفه بإغراق السوق من خلال الشركات الوهمية ، أولاً بمهام Amazon Mechanical Turk ثم إنتاج أفلام الرسوم المتحركة والبرامج التلفزيونية. في وقت لاحق ، تصنع شركات وهمية أخرى أدوية التكنولوجيا الحيوية الرائجة والاختراعات الأخرى ، وتستثمر الأرباح مرة أخرى في الذكاء الاصطناعي. يقوم الفريق بعد ذلك بمهمة الذكاء الاصطناعيالتسويق الماكر لجيش من المواطنين الصحفيين والمعلقين بأسماء مستعارة ، من أجل كسب النفوذ السياسي لاستخدامه "من أجل الصالح العام" لمنع الحروب. يواجه الفريق مخاطر أن يحاول الذكاء الاصطناعي الهروب منها عبر إدخال "أبواب خلفية" في الأنظمة التي يصممها ، أو عبر الرسائل المخفية في محتواها المنتج ، أو من خلال استخدام فهمه المتزايد للسلوك البشري لإقناع شخص ما بالسماح له بالحرية . يواجه الفريق أيضًا مخاطر تتمثل في أن قراره بوضع المشروع في صندوق سيؤخر المشروع لفترة كافية حتى يتمكن مشروع آخر من تجاوزه. [37] [38]
في المقابل ، يفترض الفيزيائي الكبير ميتشيو كاكو ، المشكك في مخاطر الذكاء الاصطناعي ، نتيجة إيجابية حتمية . في فيزياء المستقبل ، أكد أنه "سيستغرق الأمر عقودًا عديدة حتى تصعد الروبوتات" إلى مستوى أعلى من الوعي ، وأنه في هذه الأثناء من المرجح أن تنجح الشركات مثل Hanson Robotics في إنشاء روبوتات "قادرة على الحب وكسب مكان في الأسرة البشرية الممتدة ". [39] [40]
الحجج المجسمة
تفترض الحجج الأنثروبومورفيكية أن الآلات "تتطور" على نطاق خطي وأنها ، عندما تصل إلى المستويات الأعلى ، ستبدأ في إظهار العديد من السمات البشرية ، مثل الأخلاق أو التعطش للسلطة. على الرغم من أن السيناريوهات المجسمة شائعة في الخيال ، إلا أنها مرفوضة من قبل معظم العلماء الذين يكتبون عن الخطر الوجودي للذكاء الاصطناعي. [7] بدلاً من ذلك ، تم تصميم الذكاء الاصطناعي على أنه وكلاء أذكياء . [أ]
يدور الجدل الأكاديمي بين طرف قلق بشأن ما إذا كان الذكاء الاصطناعي قد يدمر البشرية ، وجانب آخر يعتقد أن الذكاء الاصطناعي لن يدمر البشرية على الإطلاق. زعم كلا الجانبين أن تنبؤات الآخرين حول سلوك الذكاء الاصطناعي هي تجسيم غير منطقي. [7] يتهم المشككون مؤيدي التجسيم بالاعتقاد بأن الذكاء الاصطناعي العام سيرغب بشكل طبيعي في السلطة. يتهم المؤيدون بعض المشككين بالتجسيم لاعتقادهم أن الذكاء الاصطناعي العام سيقدر بشكل طبيعي المعايير الأخلاقية للإنسان. [7] [41]
يجادل عالم النفس التطوري ستيفن بينكر ، وهو أحد المتشككين ، في أن "الواقع المرير للذكاء الاصطناعي يبرز علم النفس الضيق للذكور ألفا على مفهوم الذكاء. إنهم يفترضون أن الروبوتات فائقة الذكاء ستطور أهدافًا مثل عزل أسيادهم أو السيطرة على العالم" ؛ ربما بدلاً من ذلك "الذكاء الاصطناعي سوف يتطور بشكل طبيعي على طول الخطوط الأنثوية: قادر تمامًا على حل المشكلات ، ولكن دون رغبة في إبادة الأبرياء أو السيطرة على الحضارة". [42] صرح عالم الكمبيوتر Yann LeCun أن "البشر لديهم كل أنواع المحركات التي تجعلهم يفعلون أشياء سيئة لبعضهم البعض ، مثل غريزة الحفاظ على الذات ... محركات الأقراص هذه مبرمجة في أدمغتنا ولكن لا يوجد أي سبب على الإطلاق لبناء روبوتات لها نفس النوع من المحركات ".
من الأمثلة التي يمكن اعتبارها في البداية تجسيمًا ، ولكنها في الواقع بيان منطقي حول سلوك الذكاء الاصطناعي ، تجارب داريو فلوريانو حيث طورت بعض الروبوتات تلقائيًا قدرة بدائية على "الخداع" ، وخدعت الروبوتات الأخرى لأكل "السم" والموت : هنا صفة ، "الخداع" ، ترتبط عادةً بالناس بدلاً من الآلات ، تتطور تلقائيًا في نوع من التطور المتقارب . [43] وفقًا لبول آر كوهين وإدوارد فيجنباوم ، من أجل التفريق بين التجسيم والتنبؤ المنطقي لسلوك الذكاء الاصطناعي ، "تكمن الحيلة في معرفة ما يكفي عن الكيفية التي يفكر بها البشر وأجهزة الكمبيوتر لتقول بالضبطما هو مشترك بينهم ، وعندما نفتقر إلى هذه المعرفة ، نستخدم المقارنة لاقتراح نظريات التفكير البشري أو التفكير الحاسوبي " .
هناك افتراض شبه عالمي في المجتمع العلمي بأن الذكاء الاصطناعي المتقدم ، حتى لو تمت برمجته ليحتوي على أبعاد شخصية بشرية (مثل السيكوباتية) أو اعتمدها (مثل السيكوباتية ) لجعل نفسه أكثر كفاءة في مهام معينة ، على سبيل المثال ، المهام التي تنطوي على قتل البشر ، لن تدمر الإنسانية من المشاعر الإنسانية مثل "الانتقام" أو "الغضب". لا يوجد سبب لافتراض أن الذكاء الاصطناعي المتقدم سيكون "واعيًا" [45] أو لديه المكافئ الحسابي لهرمون التستوستيرون. [46] إنه يتجاهل حقيقة أن المخططين العسكريين يرون الذكاء الفائق الواعي على أنه "الكأس المقدسة" للحرب بين الدول. [47]
قضايا المصطلحات
قد ينشأ جزء من الخلاف حول ما إذا كانت الآلة فائقة الذكاء ستتصرف بشكل أخلاقي من الاختلاف في المصطلحات. خارج مجال الذكاء الاصطناعي ، غالبًا ما يستخدم "الذكاء" بطريقة سميكة معياريًا تشير إلى الحكمة الأخلاقية أو قبول الأشكال المقبولة من التفكير الأخلاقي. في أقصى الحدود ، إذا كانت الأخلاق جزءًا من تعريف الذكاء ، فعندئذٍ بحكم التعريف ، فإن الآلة فائقة الذكاء ستتصرف بشكل أخلاقي. ومع ذلك ، في مجال أبحاث الذكاء الاصطناعي ، بينما يحتوي "الذكاء" على العديد من التعريفات المتداخلة ، لا يشير أي منها إلى الأخلاق. بدلاً من ذلك ، تركز جميع أبحاث "الذكاء الاصطناعي" الحالية تقريبًا على إنشاء خوارزميات تعمل على "تحسين" تحقيق هدف عشوائي بطريقة تجريبية. [4]
لتجنب التجسيم أو عبء كلمة "ذكاء" ، يمكن اعتبار الذكاء الاصطناعي المتقدم بمثابة "عملية تحسين" غير شخصية تتخذ بصرامة أي إجراءات يُحكم عليها على الأرجح لتحقيق أهدافها (ربما معقدة وضمنية). [4] هناك طريقة أخرى لتصور الذكاء الاصطناعي المتقدم وهي تخيل آلة الزمن التي ترسل معلومات في الزمن إلى الوراء حول الخيار الذي يؤدي دائمًا إلى تعظيم وظيفة الهدف ؛ ثم يتم إخراج هذا الاختيار ، بغض النظر عن أي مخاوف أخلاقية دخيلة. [48] [49]
مصادر الخطر
صعوبة تحديد الأهداف
من الصعب تحديد مجموعة من الأهداف لآلة مضمونة لمنع العواقب غير المقصودة.
على الرغم من عدم وجود مصطلحات موحدة ، يمكن النظر إلى الذكاء الاصطناعي بشكل فضفاض على أنه آلة تختار أي إجراء يبدو أنه يحقق أفضل مجموعة من أهداف الذكاء الاصطناعي ، أو "وظيفة المنفعة". وظيفة المنفعة عبارة عن خوارزمية رياضية ينتج عنها إجابة واحدة محددة بشكل موضوعي ، وليست عبارة باللغة الإنجليزية أو أي عبارة لغوية أخرى. يعرف الباحثون كيفية كتابة وظائف المرافق التي تعني "تقليل متوسط زمن انتقال الشبكة في نموذج الاتصالات المحدد هذا" أو "زيادة عدد نقرات المكافأة إلى الحد الأقصى" ؛ ومع ذلك ، فهم لا يعرفون كيفية كتابة دالة المنفعة من أجل "تعظيم الازدهار البشري" ، ولا يتضح حاليًا ما إذا كانت هذه الوظيفة موجودة بشكل هادف وواضح. بالإضافة إلى،[50] كتب الباحث في منظمة العفو الدولية ستيوارت راسل :
الشغل الشاغل ليس الوعي الناشئ المخيف ولكن ببساطة القدرة على اتخاذ قرارات عالية الجودة . هنا ، تشير الجودة إلى فائدة النتائج المتوقعة للإجراءات المتخذة ، حيث من المفترض أن تكون وظيفة المنفعة محددة من قبل المصمم البشري. الآن لدينا مشكلة:
- قد لا تكون وظيفة المنفعة متوافقة تمامًا مع قيم الجنس البشري ، والتي (في أحسن الأحوال) يصعب تحديدها.
- سيفضل أي نظام ذكي قادر بشكل كافٍ ضمان استمرار وجوده واكتساب الموارد المادية والحاسوبية - ليس من أجلهم ، ولكن للنجاح في المهمة الموكلة إليه.
النظام الذي يعمل على تحسين وظيفة n المتغيرات ، حيث يعتمد الهدف على مجموعة فرعية من الحجم k < n ، غالبًا ما يقوم بتعيين المتغيرات غير المقيدة المتبقية إلى قيم قصوى ؛ إذا كان أحد هذه المتغيرات غير المقيدة هو في الواقع شيء نهتم به ، فقد يكون الحل الموجود غير مرغوب فيه للغاية. هذه في الأساس القصة القديمة للجني الموجود في المصباح ، أو المبتدئ الساحر ، أو الملك ميداس: تحصل على ما تطلبه بالضبط ، وليس ما تريده. يمكن أن يكون لصانع القرار ذو الكفاءة العالية - خاصةً المتصل عبر الإنترنت بجميع المعلومات في العالم ومليارات الشاشات ومعظم بنيتنا التحتية - تأثير لا رجعة فيه على البشرية.
هذه ليست صعوبة بسيطة. كان تحسين جودة القرار ، بغض النظر عن وظيفة المنفعة المختارة ، هو الهدف من أبحاث الذكاء الاصطناعي - الهدف الرئيسي الذي ننفق عليه الآن المليارات سنويًا ، وليس الحبكة السرية لبعض العبقرية الشريرة المنفردة. [51]
ردد ديتريتش وهورفيتز قلق "الساحر المبتدئ" في مقالة افتتاحية لاتصالات ACM ، مؤكدين على الحاجة إلى أنظمة ذكاء اصطناعي يمكنها التماس المدخلات البشرية بسلاسة ودون لبس حسب الحاجة. [52]
أول ما يثير قلق راسل أعلاه هو أن أنظمة الذكاء الاصطناعي المستقلة قد تُحدد أهدافًا خاطئة عن طريق الصدفة. لاحظ ديتريتش وهورفيتز أن هذا يمثل بالفعل مصدر قلق للأنظمة الحالية: "أحد الجوانب المهمة في أي نظام ذكاء اصطناعي يتفاعل مع الناس هو أنه يجب أن يفكر فيما ينوي الناس بدلاً من تنفيذ الأوامر حرفياً." يصبح هذا القلق أكثر خطورة مع تقدم برمجيات الذكاء الاصطناعي في الاستقلالية والمرونة. [52] على سبيل المثال ، في عام 1982 ، تم تكليف منظمة العفو الدولية المسمى Eurisko بمكافأة العمليات على ما يبدو لإنشاء المفاهيم التي يعتبرها النظام ذات قيمة. أدى التطور إلى عملية فائزة خدعت: بدلاً من إنشاء مفاهيمها الخاصة ، فإن عملية الفوز ستسرق الائتمان من العمليات الأخرى. [53] [54]
يلخص مشروع Open Philanthropy Project الحجج التي تفيد بأن الأهداف المحددة بشكل خاطئ ستصبح مصدر قلق أكبر إذا حققت أنظمة الذكاء الاصطناعي ذكاءً عامًا أو ذكاءً فائقًا . يجادل بوستروم ورسل وآخرون بأن أنظمة صنع القرار الأكثر ذكاءً من البشر يمكن أن تصل إلى حلول أكثر متوقعة ومتطرفة للمهام المعينة ، ويمكن أن تعدل نفسها أو بيئتها بطرق تقوض متطلبات السلامة. [5] [7]
تعتبر قوانين الروبوتات الثلاثة لإيزاك أسيموف واحدة من أقدم الأمثلة على تدابير السلامة المقترحة لوكلاء الذكاء الاصطناعي. تهدف قوانين أسيموف إلى منع الروبوتات من إيذاء البشر. في قصص Asimov ، تميل المشاكل مع القوانين إلى الظهور من التعارض بين القواعد كما هو مذكور والحدس الأخلاقي وتوقعات البشر. نقلاً عن عمل إليزر يودكوسكي من معهد أبحاث الذكاء الآلي ، لاحظ راسل ونورفيج أن مجموعة واقعية من القواعد والأهداف لوكيل الذكاء الاصطناعي ستحتاج إلى دمج آلية لتعلم القيم الإنسانية بمرور الوقت: "لا يمكننا تقديم برنامج فقط وظيفة المنفعة الثابتة ، لأن الظروف واستجاباتنا المرجوة للظروف تتغير بمرور الوقت ". [1]
يوصي مارك وايزر من معهد الحكمة الرقمية بتجنب تحسين الأساليب القائمة على الأهداف تمامًا باعتبارها مضللة وخطيرة. بدلاً من ذلك ، يقترح هندسة نظام متماسك من القوانين والأخلاق والأخلاق مع تقييد أعلى لفرض التعريف الوظيفي للأخلاق لعالم النفس الاجتماعي جوناثان هايد: [55] "لقمع الأنانية أو تنظيمها وجعل الحياة الاجتماعية التعاونية ممكنة". يقترح أنه يمكن القيام بذلك من خلال تنفيذ وظيفة الأداة المصممة لتلبية وظائف Haidt دائمًا وتهدف إلى زيادة (ولكن ليس تعظيم) قدرات الذات والأفراد الآخرين والمجتمع ككل كما اقترحه John Rawls و Martha Nussbaum . [56] [ بحاجة لمصدر ]
يقدم Nick Bostrom مثالًا افتراضيًا لمنح الذكاء الاصطناعي هدفًا لجعل البشر يبتسمون لتوضيح محاولة مضللة. يجادل بوستروم أنه إذا أصبح الذكاء الاصطناعي في هذا السيناريو فائق الذكاء ، فقد يلجأ إلى الأساليب التي قد يجدها معظم البشر مرعبة ، مثل إدخال "أقطاب كهربائية في عضلات وجه البشر لإحداث ابتسامات ثابتة ومشرقة" لأن ذلك سيكون وسيلة فعالة وسيلة لتحقيق هدفها في جعل البشر يبتسمون. [57]
صعوبات تعديل مواصفات الهدف بعد الإطلاق
في حين أن برامج الذكاء الاصطناعي الحالية المستندة إلى الهدف ليست ذكية بما يكفي للتفكير في مقاومة محاولات المبرمجين لتعديل هياكل أهدافها ، فإن الذكاء الاصطناعي المتقدم بما فيه الكفاية والعقلاني "الواعي للذات" قد يقاوم أي تغييرات في هيكل أهدافه ، تمامًا كما لا يفعل المسالمون. يريدون تناول حبة تجعلهم يريدون قتل الناس. إذا كان الذكاء الاصطناعي خارق الذكاء ، فمن المحتمل أن ينجح في المناورة خارج المشغلين البشر ويكون قادرًا على منع نفسه من "إيقاف التشغيل" أو إعادة برمجته بهدف جديد. [4] [58]
تقارب الهدف الآلي
الهدف "الفعال" هو شرط مسبق لأهداف أخرى - هدف فرعي مطلوب من أجل تحقيق الهدف الرئيسي للوكيل. "التقارب الآلي" هو ملاحظة أن هناك بعض الأهداف التي تعتبر شروطًا مسبقة لأي هدف ، مثل الحصول على الموارد أو الحفاظ على الذات. [34] يجادل نيك بوستروم بأن أي ذكاء اصطناعي ذكي بما فيه الكفاية له أهداف سيظهر هذا السلوك المتقارب - إذا تعارضت الأهداف الآلية للذكاء الاصطناعي مع البشرية ، فقد يضر ذلك بالبشرية من أجل الحصول على المزيد من الموارد أو منع نفسه من الانغلاق ، ولكن فقط باعتباره وسيلة لتحقيق هدفها الأساسي. [4]
نقلاً عن عمل ستيف أوموهوندرو حول فكرة التقارب الآلي و "محركات الذكاء الاصطناعي الأساسية" ، كتب ستيوارت راسل وبيتر نورفيج أنه "حتى لو كنت تريد فقط أن يلعب برنامجك الشطرنج أو إثبات النظريات ، إذا أعطيته القدرة على التعلم و تعديل نفسها ، تحتاج إلى ضمانات ". تتطلب أنظمة التخطيط ذات القدرة العالية والمستقلة فحوصات إضافية بسبب قدرتها على إنشاء خطط تعامل البشر بشكل عدائي ، كمنافسين لموارد محدودة. [1]لن يكون البناء في الضمانات أمرًا سهلاً ؛ يمكن للمرء بالتأكيد أن يقول باللغة الإنجليزية ، "نريدك أن تصمم محطة الطاقة هذه بطريقة منطقية ومنطقية ، ولا تبني في أي أنظمة فرعية سرية وخطيرة" ، ولكن ليس من الواضح حاليًا كيف سيحدد المرء هذا الهدف بدقة في كود الآلة. [10]
يجادل راسل بأن الآلة المتطورة بشكل كافٍ "سيكون لها الحفاظ على الذات حتى إذا لم تقم ببرمجتها ... إذا قلت ،" إحضار القهوة "، لا يمكنها إحضار القهوة إذا ماتت. لذا إذا أعطيت إنه أي هدف على الإطلاق ، لديه سبب للحفاظ على وجوده لتحقيق هذا الهدف ". [9] [59]
أطروحة التعامد
أحد المعتقدات الشائعة هو أن أي برنامج فائق الذكاء يصنعه البشر سيكون خاضعًا للبشر ، أو ، الأفضل من ذلك ، (لأنه ينمو أكثر ذكاءً ويتعلم المزيد من الحقائق حول العالم) تلقائيًا "يتعلم" حقيقة أخلاقية متوافقة مع القيم الإنسانية تعديل أهدافها وفقًا لذلك. تدور الحجج المضادة الأخرى حول كون البشر إما ذات قيمة جوهرية أو متقاربة من منظور الذكاء الاصطناعي. [60]
ومع ذلك ، فإن "أطروحة التعامد" لنيك بوستروم تعارض ذلك ، وتنص بدلاً من ذلك ، مع بعض التحذيرات الفنية ، إلى حد ما أو أقل من أي مستوى من "الذكاء" أو "قوة التحسين" مع أي هدف نهائي إلى حد ما. إذا تم إنشاء آلة ومنح الغرض الوحيد منها تعداد الكسور العشرية لـ، فلن تمنعها أي قواعد أخلاقية وأخلاقية من تحقيق هدفها المبرمج بأي وسيلة ضرورية. قد تستخدم الآلة جميع الموارد المادية والمعلوماتية التي يمكنها العثور على كل عدد عشري من pi يمكن العثور عليه. [61] يحذر بوستروم من التجسيم: يشرع الإنسان في إنجاز مشاريعه بطريقة يعتبرها البشر "معقولة" ، في حين أن الذكاء الاصطناعي قد لا يولي أي اعتبار لوجوده أو لرفاهية البشر من حوله ، وربما بدلاً من ذلك يهتم فقط بإنجاز المهمة. [62]
في حين أن أطروحة التعامد تتبع منطقيًا حتى أضعف أنواع " التمييز الواجب " الفلسفي ، يجادل ستيوارت أرمسترونج بأنه حتى لو كانت هناك حقائق أخلاقية يمكن إثباتها من قبل أي فاعل "عقلاني" ، فإن أطروحة التعامد لا تزال قائمة: يكون من الممكن إنشاء "آلة تحسين" غير فلسفية قادرة على اتخاذ قرارات للسعي نحو هدف ضيق ، ولكن هذا ليس له حافز لاكتشاف أي "حقائق أخلاقية" من شأنها أن تعيق تحقيق الهدف. [63]
إحدى الحجج التي تؤيد فرضية التعامد هي أن بعض تصميمات الذكاء الاصطناعي يبدو أنها تشتمل على تعامد ؛ في مثل هذا التصميم ، يمكن أن يكون تغيير الذكاء الاصطناعي الصديق بشكل أساسي إلى ذكاء اصطناعي غير ودي بشكل أساسي بسيطًا مثل تقديم علامة ناقص ("-") إلى وظيفة المنفعة الخاصة به. هناك حجة أكثر بديهية وهي فحص العواقب الغريبة التي ستتبع إذا كانت أطروحة التعامد خاطئة. إذا كانت أطروحة التعامد خاطئة ، فسيكون هناك هدف بسيط ولكن "غير أخلاقي" مثل أنه لا يمكن وجود أي خوارزمية فعالة في العالم الحقيقي مع الهدف ز.وهذا يعني أنه "[إذا] كان المجتمع البشري متحمسًا للغاية لتصميم خوارزمية فعالة في العالم الحقيقي مع الهدف G ، وتم منحها مليون سنة للقيام بذلك جنبًا إلى جنب مع كميات هائلة من الموارد والتدريب والمعرفة حول الذكاء الاصطناعي ،[63] ويشير أرمسترونج إلى أن هذه العبارات وما شابهها "تبدو مزاعم قوية بشكل غير عادي". [63]
بعض المعارضين ، مثل مايكل تشوروست ، يجادلون بدلاً من ذلك بأنه "بحلول الوقت الذي تكون فيه [منظمة العفو الدولية] في وضع يسمح لها بتخيل تبليط الأرض بألواح شمسية ، ستعرف أنه سيكون من الخطأ أخلاقيًا القيام بذلك." [64] يجادل شوروست بأن "الذكاء الاصطناعي يحتاج إلى الرغبة في حالات معينة ويكره الآخرين. تفتقر برامج اليوم إلى هذه القدرة - وليس لدى علماء الكمبيوتر دليل على كيفية الوصول إليها. وبدون الرغبة ، لا يوجد دافع لفعل أي شيء. أجهزة الكمبيوتر الحالية لا يمكنك حتى الاحتفاظ بها ، ناهيك عن بلاط العالم في الألواح الشمسية ". [64]
يعتقد العالم السياسي تشارلز ت. روبين أن الذكاء الاصطناعي لا يمكن تصميمه أو ضمان كونه خيرًا. وهو يجادل بأن "أي إحسان متقدم بما فيه الكفاية قد لا يمكن تمييزه عن الحقد". [65] لا ينبغي للبشر أن يفترضوا أن الآلات أو الروبوتات ستعاملنا بشكل إيجابي لأنه لا يوجد سبب مسبق للاعتقاد بأنهم سيكونون متعاطفين مع نظامنا الأخلاقي ، الذي تطور جنبًا إلى جنب مع علم الأحياء الخاص بنا (والذي لن تشاركه أنظمة الذكاء الاصطناعي). [65]
مصادر أخرى للمخاطر
المنافسة
في عام 2014 ، صرح الفيلسوف نيك بوستروم أن "ديناميكية العرق الشديدة" ( المنافسة الشديدة ) بين الفرق المختلفة قد تخلق ظروفًا يؤدي فيها إنشاء الذكاء الاصطناعي العام إلى اختصارات للسلامة وربما الصراع العنيف. [30] ولمواجهة هذا الخطر ، نقلاً عن التعاون العلمي السابق ( CERN ، ومشروع الجينوم البشري ، ومحطة الفضاء الدولية ) ، أوصى بوستروم بالتعاون والتبني العالمي الإيثاري لمبدأ الصالح العام : "يجب تطوير الذكاء الفائق فقط من أجل المنفعة للبشرية جمعاء وفي خدمة المثل الأخلاقية المشتركة على نطاق واسع ". [30] : 254وضع بوستروم نظرية مفادها أن التعاون على إنشاء ذكاء عام اصطناعي من شأنه أن يوفر فوائد متعددة ، بما في ذلك الحد من التسرع ، وبالتالي زيادة الاستثمار في السلامة ؛ تجنب الصراعات العنيفة (الحروب) ، وتسهيل تقاسم الحلول لمشكلة السيطرة ، وتوزيع الفوائد بشكل أكثر إنصافًا. [30] : 253 تم إطلاق مبادرة الدماغ الأمريكية في عام 2014 ، وكذلك مشروع الدماغ البشري التابع للاتحاد الأوروبي ؛ تم إطلاق مشروع الدماغ الصيني في عام 2016.
تسليح الذكاء الاصطناعي
تجادل بعض المصادر بأن التسليح المستمر للذكاء الاصطناعي يمكن أن يشكل خطرًا كارثيًا. [66] [67] الخطر في الواقع هو ثلاثة أضعاف ، مع احتمال أن يكون للمخاطر الأولى آثار جيوسياسية ، والثاني لهما بالتأكيد آثار جيوسياسية:
ط) مخاطر تأطير "السباق نحو الميزة التكنولوجية" للذكاء الاصطناعي ، بغض النظر عما إذا كان السباق يتم متابعته بجدية ؛
2) مخاطر تأطير "السباق نحو الميزة التكنولوجية" للذكاء الاصطناعي وسباق الذكاء الاصطناعي الفعلي للميزة التكنولوجية ، بغض النظر عما إذا كان الفوز بالسباق أم لا ؛
ج) مخاطر الفوز بسباق الذكاء الاصطناعي لتحقيق الميزة التكنولوجية. [66] : 37
إن الذكاء الفائق الذي يتم تسليحه بوعي من شأنه أن يؤثر على التفوق التكنولوجي العسكري للولايات المتحدة ويحول الحرب ؛ لذلك فهو مرغوب فيه للغاية للتخطيط العسكري الاستراتيجي والحرب بين الدول. [47] [67] ينظر مجلس الدولة الصيني لعام 2017 بعنوان "خطة تطوير الجيل القادم للذكاء الاصطناعي" إلى الذكاء الاصطناعي من منظور إستراتيجي جيوسياسي ويتبع استراتيجية اندماج عسكري-مدني للبناء على ميزة المحرك الأول للصين في تطوير الذكاء الاصطناعي من أجل لتأسيس التفوق التكنولوجي بحلول عام 2030 ، [68] بينما صرح الرئيس الروسي فلاديمير بوتين أن "من يصبح قائدًا في هذا المجال سيصبح حاكم العالم". [69] جيمس بارات ، مخرج أفلام وثائقية ومؤلفيقول اختراعنا النهائي ، في مقابلة أجرتها مؤسسة سميثسونيان ، "تخيل: في أقل من عقد من الزمان ، كانت ست شركات ودول تستخدم أجهزة كمبيوتر تنافس الذكاء البشري أو تفوقه. تخيل ما يحدث عندما تصبح هذه الحواسيب خبيرة في برمجة أجهزة الكمبيوتر الذكية. قريبًا سنشارك الكوكب بآلات أكثر ذكاءً منا بآلاف أو ملايين المرات. وطوال الوقت ، سيتم تسليح كل جيل من هذه التكنولوجيا. غير المنظمة ، ستكون كارثية. " [70]
الذكاء الاصطناعي الخبيث حسب التصميم
يُنظَر إلى أن الذكاء الاصطناعي العام الخبيث يمكن إنشاؤه عن طريق التصميم ، على سبيل المثال من قبل جيش أو حكومة أو معتل اجتماعيًا أو شركة ، للاستفادة من مجموعات معينة من الناس أو السيطرة عليها أو إخضاعها ، كما هو الحال في الجرائم الإلكترونية . [71] [72] : 166 بدلاً من ذلك ، يمكن أن تختار AGI الخبيثة ("الذكاء الاصطناعي الشرير") هدف زيادة المعاناة الإنسانية ، على سبيل المثال أولئك الأشخاص الذين لم يساعدوها خلال مرحلة انفجار المعلومات. [3] : 158
ضربة نووية استباقية
يُنظَر إلى أن بلدًا يقترب من تحقيق التفوق التكنولوجي للذكاء الاصطناعي العام يمكن أن يؤدي إلى توجيه ضربة نووية استباقية من أحد المنافسين ، مما يؤدي إلى حرب نووية . [67] [73]
الإطار الزمني
تختلف الآراء حول ما إذا كان الذكاء الاصطناعي العام سيصل ومتى . من ناحية ، تنبأ رائد الذكاء الاصطناعي هربرت أ. سايمون بما يلي في عام 1965: "ستكون الآلات قادرة ، في غضون عشرين عامًا ، على القيام بأي عمل يمكن للرجل القيام به". [74] من ناحية أخرى ، يدعي عالم الروبوتات آلان وينفيلد أن الهوة بين الحوسبة الحديثة والذكاء الاصطناعي على مستوى الإنسان واسعة مثل الفجوة بين رحلة الفضاء الحالية والعملية ، وأسرع من رحلات الفضاء الخفيفة. [75]التفاؤل بأن الذكاء الاصطناعي العام هو شموع مجدية ويتلاشى ، وربما شهد انتعاشًا في العقد الأول من القرن الحادي والعشرين. اقترحت أربعة استطلاعات للرأي أجريت في عامي 2012 و 2013 أن متوسط التخمين بين الخبراء لموعد وصول AGI كان من 2040 إلى 2050 ، اعتمادًا على الاستطلاع. [76] [77] في كتابه لعام 2020 ، الهاوية: المخاطر الوجودية ومستقبل البشرية ، توبي أورد ، زميل أبحاث أول في معهد مستقبل الإنسانية بجامعة أكسفورد ، يقدر إجمالي المخاطر الوجودية من الذكاء الاصطناعي غير المحاذي خلال القرن المقبل إلى كن واحدًا من كل عشرة. [78]
يميل المشككون ، الذين يعتقدون أنه من المستحيل أن يصل الذكاء الاصطناعي العام في أي وقت قريب ، إلى القول بأن التعبير عن القلق بشأن المخاطر الوجودية من الذكاء الاصطناعي غير مفيد لأنه قد يصرف انتباه الناس عن المخاوف الأكثر إلحاحًا بشأن تأثير الذكاء الاصطناعي العام ، بسبب المخاوف من أن يؤدي ذلك إلى الحكومة. تنظيم أو يجعل من الصعب تأمين التمويل لأبحاث الذكاء الاصطناعي ، أو لأنه قد يمنح أبحاث الذكاء الاصطناعي سمعة سيئة. يسعى بعض الباحثين ، مثل أورين إيتزيوني ، بقوة إلى تهدئة القلق بشأن المخاطر الوجودية من الذكاء الاصطناعي ، قائلين: "لقد طعننا [إيلون موسك] بلغة قوية جدًا قائلاً إننا نطلق العنان للشيطان ، ولذا فإننا نجيب." [79]
في عام 2014 ، قال آدم إلكوس من Slate : "إن الذكاء الاصطناعي" الأذكى "لدينا هو ذكاء مثل طفل صغير - وفقط عندما يتعلق الأمر بالمهام الآلية مثل استدعاء المعلومات. ولا يزال معظم علماء الروبوتات يحاولون الحصول على يد روبوت لالتقاط الكرة أو الركض دون الوقوع ". يواصل Elkus القول بأن تشبيه Musk "استدعاء الشيطان" قد يكون ضارًا لأنه قد يؤدي إلى "تخفيضات قاسية" في ميزانيات أبحاث الذكاء الاصطناعي. [80]
منحت مؤسسة تكنولوجيا المعلومات والابتكار (ITIF) ، وهي مؤسسة فكرية في واشنطن العاصمة ، جائزة Luddite السنوية لعام 2015 إلى "المنبهين الذين يروجون لنهاية العالم للذكاء الاصطناعي" ؛ اشتكى رئيسها ، روبرت د. أتكينسون ، من أن خبراء ماسك وهوكينغ والذكاء الاصطناعي يقولون إن الذكاء الاصطناعي هو أكبر تهديد وجودي للبشرية. صرح أتكينسون: "هذه ليست رسالة رابحة إذا كنت ترغب في الحصول على تمويل الذكاء الاصطناعي من الكونغرس لمؤسسة العلوم الوطنية." [81] [82] [83] الطبيعةاختلف بشدة مع ITIF في افتتاحية أبريل 2016 ، وانحاز بدلاً من ذلك إلى Musk و Hawking و Russell ، واستنتج: "من الأهمية بمكان أن يقابل التقدم في التكنولوجيا ببحث قوي وممول جيدًا لتوقع السيناريوهات التي يمكن أن تحدثها . .. إذا كان هذا هو منظور Luddite ، فليكن ". [84] في عام 2015 في صحيفة واشنطن بوست الافتتاحية ، ذكر الباحث موراي شاناهان أنه من غير المرجح أن يصل الذكاء الاصطناعي على المستوى البشري "في أي وقت قريب" ، ولكن مع ذلك "حان الوقت لبدء التفكير في العواقب". [85]
وجهات نظر
تثير الأطروحة القائلة بأن الذكاء الاصطناعي يمكن أن يشكل خطرًا وجوديًا مجموعة واسعة من ردود الفعل داخل المجتمع العلمي ، وكذلك في الجمهور بشكل عام. ومع ذلك ، فإن العديد من وجهات النظر المتعارضة تشترك في أرضية مشتركة.
تتفق مبادئ Asilomar للذكاء الاصطناعي ، التي تحتوي فقط على المبادئ التي وافق عليها 90٪ من الحاضرين في مؤتمر الذكاء الاصطناعي المفيد لعام 2017 التابع لمعهد مستقبل الحياة ، [38] من حيث المبدأ على أنه "لا يوجد إجماع ، يجب أن نتجنب الافتراضات القوية فيما يتعلق الحدود القصوى لقدرات الذكاء الاصطناعي المستقبلية "و" الذكاء الاصطناعي المتقدم يمكن أن يمثل تغييرًا عميقًا في تاريخ الحياة على الأرض ، ويجب التخطيط له وإدارته بالعناية والموارد المناسبة. " [86] [87] انتقد دعاة السلامة في منظمة العفو الدولية مثل بوستروم وتيجمارك استخدام وسائل الإعلام السائدة لـ "تلك المبالغة في المنهيالصور "لتوضيح مخاوف السلامة المتعلقة بالذكاء الاصطناعي:" لا يمكن أن يكون من الممتع كثيرًا إلقاء نظرة على الانضباط الأكاديمي للفرد ، والمجتمع المهني للفرد ، والعمل الحياتي للفرد ... أدعو جميع الأطراف إلى ممارسة الصبر وضبط النفس ، والانخراط في الحوار المباشر والتعاون قدر الإمكان ". [38] [88]
على العكس من ذلك ، يتفق العديد من المتشككين على أن البحث المستمر في الآثار المترتبة على الذكاء العام الاصطناعي أمر ذو قيمة. يقول المتشكك مارتن فورد : "أعتقد أنه من الحكمة تطبيق شيء مثل " عقيدة 1 بالمائة "الشهيرة لديك تشيني على شبح الذكاء الاصطناعي المتقدم: احتمالات حدوثه ، على الأقل في المستقبل المنظور ، قد تكون منخفضة للغاية - لكن الآثار مأساوية لدرجة أنه ينبغي أخذها على محمل الجد "؛ [89] وبالمثل ، ذكر خبير اقتصادي متشكك في عام 2014 أن "الآثار المترتبة على إدخال نوع ذكي آخر على الأرض بعيدة المدى بما يكفي لاستحقاق التفكير الجاد ، حتى لو بدا الاحتمال بعيدًا". [32]
أظهر استطلاع عام 2014 أن آراء الخبراء في مجال الذكاء الاصطناعي مختلطة ، مع وجود أجزاء كبيرة معنية وغير مهتمة بالمخاطر الناجمة عن الذكاء الاصطناعي الخارق في نهاية المطاف. [90] طلب استطلاع عبر البريد الإلكتروني في عام 2017 للباحثين الذين لديهم منشورات في مؤتمري التعلم الآلي NIPS و ICML لعام 2015 تقييم مخاوف Stuart J. Russell بشأن مخاطر الذكاء الاصطناعي. من بين المبحوثين ، قال 5٪ أنها "من بين أهم المشاكل في المجال" ، وقال 34٪ إنها "مشكلة مهمة" ، وقال 31٪ إنها "مهمة بدرجة متوسطة" ، بينما قال 19٪ أنها "ليست كذلك". مهمة "وقال 11٪ إنها" ليست مشكلة حقيقية "على الإطلاق. [91]
المصادقة
فرضية أن الذكاء الاصطناعي يشكل خطرًا وجوديًا ، وأن هذا الخطر يحتاج إلى اهتمام أكبر بكثير مما يحصل عليه حاليًا ، وقد أيدته العديد من الشخصيات العامة ؛ ولعل أشهرهم إيلون ماسك وبيل جيتس وستيفن هوكينغ . أبرز باحثي الذكاء الاصطناعي الذين وافقوا على الأطروحة هم راسل وآي جود جود ، اللذان نصحا ستانلي كوبريك بشأن تصوير فيلم 2001: A Space Odyssey . يعبر مؤيدو الأطروحة أحيانًا عن حيرتهم تجاه المتشككين: يقول جيتس إنه لا "يفهم سبب عدم قلق بعض الناس" ، [92] وانتقد هوكينغ اللامبالاة الواسعة الانتشار في مقالته الافتتاحية لعام 2014:
لذا ، في مواجهة مستقبل محتمل بفوائد ومخاطر لا تُحصى ، يبذل الخبراء بالتأكيد كل ما في وسعهم لضمان أفضل النتائج ، أليس كذلك؟ خاطئ. إذا أرسلت لنا حضارة فضائيّة متفوقة رسالة تقول ، "سنصل في غضون بضعة عقود" ، فهل نرد فقط ، "حسنًا ، اتصل بنا عندما تصل إلى هنا - سنترك الأضواء مضاءة؟" ربما لا - ولكن هذا ما يحدث تقريبًا مع الذكاء الاصطناعي. [21]
أدى القلق بشأن مخاطر الذكاء الاصطناعي إلى بعض التبرعات والاستثمارات رفيعة المستوى. خصصت مجموعة من عمالقة التكنولوجيا البارزين ، بما في ذلك Peter Thiel و Amazon Web Services و Musk ، مليار دولار لشركة OpenAI ، وهي شركة غير ربحية تهدف إلى دعم تطوير الذكاء الاصطناعي المسؤول. [93] في يناير 2015 ، تبرع Elon Musk بمبلغ 10 ملايين دولار لمعهد Future of Life لتمويل الأبحاث حول فهم اتخاذ القرار في مجال الذكاء الاصطناعي. هدف المعهد هو "تنمية الحكمة التي ندير بها" القوة المتزايدة للتكنولوجيا. كما يمول المسك الشركات التي تعمل على تطوير الذكاء الاصطناعي مثل DeepMind و Vicariousإلى "مجرد مراقبة ما يحدث مع الذكاء الاصطناعي. [94] أعتقد أنه من المحتمل أن تكون هناك نتيجة خطيرة هناك." [95] [96]
الشك
الأطروحة القائلة بأن الذكاء الاصطناعي يمكن أن يشكل خطرًا وجوديًا لها أيضًا الكثير من الانتقاص. يتهم المشككون أحيانًا أن الأطروحة دينية مشفرة ، مع وجود إيمان غير منطقي بإمكانية الذكاء الخارق ليحل محل الاعتقاد غير العقلاني بإله كلي القدرة ؛ في أقصى الحدود ، جادل جارون لانيير في عام 2014 بأن المفهوم الكامل بأن الآلات الحالية كانت ذكية بأي شكل من الأشكال كان "وهمًا" و "خدعة هائلة" من قبل الأثرياء. [97] [98]
يجادل الكثير من الانتقادات الحالية بأن الذكاء الاصطناعي العام من غير المرجح على المدى القصير. كتب الباحث الرائد في مجال الذكاء الاصطناعي ، رودني بروكس ، "أعتقد أنه من الخطأ أن تقلق بشأن تطويرنا للذكاء الاصطناعي الخبيث في أي وقت خلال مئات السنين القادمة. أعتقد أن القلق ينبع من خطأ جوهري في عدم التمييز بين التطورات الأخيرة الحقيقية جدًا. في جانب معين من الذكاء الاصطناعي وضخامة وتعقيد بناء ذكاء إرادي واعي ". [99] صرح أندرو نج ، نائب رئيس شركة بايدو ، أن الخطر الوجودي للذكاء الاصطناعي "يشبه القلق بشأن الزيادة السكانية على سطح المريخ في حين أننا لم تطأ أقدامنا الكوكب بعد." [42] عالم الكمبيوتر جوردون بيليجادل بأن الجنس البشري سيدمر نفسه بالفعل قبل أن يصل إلى التفرد التكنولوجي. صرح جوردون مور ، المؤيد الأصلي لقانون مور ، "أنا متشكك. لا أعتقد أن [التفرد التكنولوجي] من المحتمل أن يحدث ، على الأقل لفترة طويلة. ولا أعرف لماذا أشعر بذلك طريق." [100]
من أجل إدراك خطر الذكاء الاصطناعي المتقدم غير المتحكم فيه ، سيتعين على الذكاء الاصطناعي الافتراضي التغلب على البشرية جمعاء أو التفوق عليها ، وهو ما يجادل بعض الخبراء بأنه احتمال بعيد بما يكفي في المستقبل حتى لا يستحق البحث. [101] [102] يجب أن يصبح الذكاء الاصطناعي أفضل بكثير في ابتكار البرمجيات من مخرجات ابتكار البرمجيات في بقية العالم. ويشكك عالم الاقتصاد روبن هانسون في إمكانية حدوث ذلك. [103] [104] [105] [106] [107]
حتى لو ظهر الذكاء الخارق بالفعل ، فسيكون محدودًا بسرعة بقية العالم ، وبالتالي يُمنع من الاستيلاء على الاقتصاد بطريقة لا يمكن السيطرة عليها. يجادل Futurist Max More ، على سبيل المثال: [108]
ما لم تظهر تكنولوجيا النانو والروبوتات الكاملة قبل الذكاء الخارق ، ... [ر] يحتاج إلى التعاون والتنظيم ووضع الأفكار في التغييرات المادية سيضمن عدم التخلص من جميع القواعد القديمة ... حتى في غضون سنوات. ... حتى النظام الدولي المتقدم بشكل كبير لن يحدث فرقًا كبيرًا في العالم عند مقارنته بمليارات البشر المعززين الذين تم دمجهم بشكل متزايد مع التكنولوجيا….
تشمل الحدود الأساسية التي قد تمنع الاستحواذ غير القابل للسيطرة على الذكاء الاصطناعي العام عدم اليقين غير القابل للاختزال بشأن المستقبل والتعقيد الحسابي الذي يتسع نطاقًا أسيًا مع حجم المشكلة بالإضافة إلى حدود الأجهزة المختلفة للحساب . [109] [110]
قد يتردد بعض باحثي الذكاء الاصطناعي والذكاء الاصطناعي العام في مناقشة المخاطر ، قلقين من أن صانعي السياسات ليس لديهم معرفة متطورة بالمجال ويكونون عرضة للاقتناع برسائل "تنذر بالخطر" ، أو قلقون من أن مثل هذه الرسائل ستؤدي إلى تخفيضات في تمويل الذكاء الاصطناعي. يلاحظ سليت أن بعض الباحثين يعتمدون على المنح المقدمة من الوكالات الحكومية مثل داربا . [26]
يجادل العديد من المتشككين في أن الفوائد المحتملة على المدى القريب للذكاء الاصطناعي تفوق المخاطر. يعتقد مارك زوكربيرج ، الرئيس التنفيذي لشركة Facebook ، أن الذكاء الاصطناعي "سيفتح قدرًا هائلاً من الأشياء الإيجابية" ، مثل علاج الأمراض وزيادة سلامة السيارات ذاتية القيادة. [111]
عروض وسيطة
تتخذ الآراء الوسيطة عمومًا موقفًا مفاده أن مشكلة التحكم في الذكاء العام الاصطناعي قد تكون موجودة ، ولكن سيتم حلها من خلال التقدم في الذكاء الاصطناعي ، على سبيل المثال عن طريق إنشاء بيئة تعليمية أخلاقية للذكاء الاصطناعي ، مع الحرص على اكتشاف السلوك الخبيث الخبيث ( "تعثر قذر") [112] ثم التدخل المباشر في الكود قبل أن يقوم الذكاء الاصطناعي بتحسين سلوكه ، أو حتى ضغط الأقران من أنظمة الذكاء الاصطناعي الصديقة . [113] في نقاش عام 2015 في صحيفة وول ستريت جورنال المخصصة لمخاطر الذكاء الاصطناعي ، تجاهل نائب رئيس شركة IBM للحوسبة المعرفية ، Guruduth S. Banavar ، مناقشة الذكاء الاصطناعي العام بعبارة "إنها تكهنات لأي شخص." [114] جيفري هينتونلاحظ "الأب الروحي للتعلم العميق" أنه "لا يوجد سجل جيد للأشياء الأقل ذكاءً التي تتحكم في أشياء ذات ذكاء أكبر" ، لكنه ذكر أنه يواصل بحثه لأن "احتمالية الاكتشاف حلوة للغاية ". [26] [77] في عام 2004 ، كتب أستاذ القانون ريتشارد بوسنر أن الجهود المكرسة للتعامل مع الذكاء الاصطناعي يمكن أن تنتظر ، ولكن يجب علينا جمع المزيد من المعلومات حول المشكلة في غضون ذلك. [115] [116]
رد فعل شعبي
في مقال نُشر عام 2014 في The Atlantic ، أشار جيمس هامبلين إلى أن معظم الناس لا يهتمون بطريقة أو بأخرى بالذكاء العام الاصطناعي ، ووصف رد فعله الغريزي على الموضوع بأنه: "اخرج من هنا. لدي مائة ألف شيء أنا قلق بشأن هذه اللحظة بالتحديد. هل أحتاج بشدة إلى إضافة إلى ذلك التفرد التكنولوجي؟ " [97]
خلال مقابلة سلكية 2016 مع الرئيس باراك أوباما وجوي إيتو من MIT Media Lab ، صرح إيتو:
هناك عدد قليل من الأشخاص الذين يعتقدون أن هناك فرصة عالية نسبيًا لحدوث ذكاء اصطناعي معمم في السنوات العشر القادمة. لكن الطريقة التي أنظر إليها هي أنه من أجل حدوث ذلك ، سنحتاج إلى عشرات أو اثنتين من الاختراقات المختلفة. حتى تتمكن من مراقبة الوقت الذي تعتقد أن هذه الاختراقات ستحدث.
وعليك فقط أن يكون لديك شخص قريب من سلك الطاقة. [يضحك]. حقًا عندما ترى ذلك على وشك الحدوث ، عليك سحب الكهرباء من الحائط ، يا رجل.
صرحت هيلاري كلينتون في كتابه " ماذا حدث " :
حذر علماء التكنولوجيا ... من أن الذكاء الاصطناعي يمكن أن يشكل يومًا ما تهديدًا أمنيًا وجوديًا. أطلق عليها المسك "الخطر الأعظم الذي نواجهه كحضارة". فكر في الأمر: هل سبق لك أن شاهدت فيلمًا تبدأ فيه الآلات بالتفكير بنفسها وينتهي بشكل جيد؟ في كل مرة أخرج فيها إلى وادي السيليكون أثناء الحملة ، كنت أعود إلى المنزل أكثر قلقاً بشأن هذا الأمر. عاش موظفو مكتبي في خوف من أن أبدأ الحديث عن "صعود الروبوتات" في بعض مباني بلدية أيوا. ربما يجب أن يكون. على أي حال ، يحتاج صانعو السياسات إلى مواكبة التكنولوجيا وهي تتقدم للأمام ، بدلاً من لعب دور اللحاق بالركب دائمًا. [119]
في استطلاع أجرته YouGov للجمهور لصالح جمعية العلوم البريطانية ، قال حوالي ثلث المشاركين في الاستطلاع إن الذكاء الاصطناعي سيشكل تهديدًا لبقاء البشرية على المدى الطويل. [120] بالإشارة إلى استطلاع رأي لقرائه ، صرح جاكوب بروغان من Slate أن "معظم (القراء الذين يملئون استطلاعنا عبر الإنترنت) لم يكونوا مقتنعين بأن الذكاء الاصطناعي نفسه يمثل تهديدًا مباشرًا." [121]
في عام 2018 ، وجد استطلاع للرأي أجرته مؤسسة SurveyMonkey للرأي العام الأمريكي أجرته USA Today أن 68٪ يعتقدون أن التهديد الحالي الحقيقي يظل "ذكاءً بشريًا". ومع ذلك ، وجد الاستطلاع أيضًا أن 43٪ قالوا إن الذكاء الاصطناعي الخارق ، إذا حدث ، سيؤدي إلى "ضرر أكثر مما ينفع" ، وقال 38٪ إنه سيحدث "قدرًا متساويًا من الضرر والصالح". [121]
إحدى وجهات النظر التقنية الفاضلة المعبر عنها في بعض الروايات الشائعة هي أن الذكاء الاصطناعي العام قد يتجه نحو بناء السلام. [122]
التخفيف
يعتقد العديد من العلماء المهتمين بالمخاطر الوجودية للذكاء الاصطناعي العام أن أفضل نهج هو إجراء بحث جوهري لحل "مشكلة التحكم" الصعبة للإجابة على السؤال: ما هي أنواع الضمانات أو الخوارزميات أو البنى التي يمكن للمبرمجين تنفيذها لتعظيم احتمالية أن -تحسين الذكاء الاصطناعي سيستمر في التصرف بطريقة ودية وليست مدمرة بعد وصوله إلى الذكاء الخارق؟ [4] [116] يعترف هؤلاء الباحثون أيضًا بإمكانية اتخاذ تدابير اجتماعية للتخفيف من المخاطر الوجودية للذكاء الاصطناعي العام. [123] [124] على سبيل المثال ، إحدى التوصيات تتعلق بـ "معاهدة الذكاء الاصطناعي العام الخيرية" التي ترعاها الأمم المتحدة والتي من شأنها أن تضمن إنشاء مؤسسات ASI التي تعمل على الإيثار فقط. [125]وبالمثل ، تم اقتراح نهج للحد من التسلح ، كما هو الحال بالنسبة لمعاهدة سلام عالمية تستند إلى نظرية العلاقات الدولية الخاصة بتوافق الذرائعية ، مع احتمال توقيع ASI. [126]
اقترح الباحثون في Google بحثًا في قضايا "أمان الذكاء الاصطناعي" العامة للتخفيف في نفس الوقت من المخاطر قصيرة المدى الناتجة عن الذكاء الاصطناعي الضيق والمخاطر طويلة المدى من الذكاء الاصطناعي العام. [127] [128] يضع تقدير عام 2020 الإنفاق العالمي على الذكاء الاصطناعي خطرًا وجوديًا في مكان ما بين 10 و 50 مليون دولار ، مقارنة بالإنفاق العالمي على الذكاء الاصطناعي بحوالي 40 مليار دولار. يقترح بوستروم مبدأً عامًا "للتطور التكنولوجي التفاضلي" ، يجب على الممولين التفكير في العمل على تسريع تطوير تقنيات الحماية المتعلقة بتطوير التقنيات الخطرة. [129] يقترح بعض الممولين ، مثل Elon Musk ، هذا التعزيز المعرفي البشري الجذرييمكن أن تكون مثل هذه التكنولوجيا ، على سبيل المثال من خلال الربط العصبي المباشر بين الإنسان والآلة ؛ ومع ذلك ، يجادل آخرون بأن تقنيات التحسين نفسها قد تشكل خطرًا وجوديًا. [130] [131] يمكن للباحثين ، إذا لم يتم القبض عليهم على حين غرة ، أن يراقبوا عن كثب أو يحاولوا ضبط الذكاء الاصطناعي الأولي لخطر أن يصبحوا أقوياء للغاية ، كمحاولة لإجراء تدبير مؤقت. إن الذكاء الاصطناعي الخارق المهيمن ، إذا كان متوافقًا مع المصالح البشرية ، قد يتخذ إجراءات للتخفيف من مخاطر الاستحواذ من قبل الذكاء الاصطناعي المنافس ، على الرغم من أن إنشاء الذكاء الاصطناعي المهيمن قد يشكل في حد ذاته خطرًا وجوديًا. [132]
وتشارك مؤسسات مثل معهد أبحاث الذكاء الآلي ، ومعهد مستقبل الإنسانية ، [١٣٣] [١٣٤] معهد مستقبل الحياة ، ومركز دراسة المخاطر الوجودية ، ومركز الذكاء الاصطناعي المتوافق مع الإنسان [١٣٥] في التخفيف من المخاطر الوجودية من الذكاء الاصطناعي المتقدم ، على سبيل المثال من خلال البحث في الذكاء الاصطناعي الودي . [5] [97] [21]
آراء حول الحظر والتنظيم
حظر
هناك اتفاق عالمي تقريبًا على أن محاولة حظر البحث في الذكاء الاصطناعي ستكون غير حكيمة ، وربما عقيمة. [136] [137] [138] يجادل المشككون في أن تنظيم الذكاء الاصطناعي سيكون عديم القيمة تمامًا ، حيث لا يوجد خطر وجودي. يتفق جميع الباحثين تقريبًا الذين يعتقدون بوجود خطر وجودي مع المشككين في أن حظر البحث سيكون أمرًا غير حكيم ، حيث يمكن نقل البحث إلى بلدان ذات لوائح أكثر مرونة أو إجراؤها سراً. المسألة الأخيرة ذات صلة خاصة ، حيث يمكن إجراء أبحاث الذكاء الاصطناعي على نطاق صغير بدون بنية تحتية أو موارد كبيرة. [139] [140]هناك مشكلتان افتراضيتان إضافيتان مع الحظر (أو أي تنظيم آخر) وهما أن رواد الأعمال في مجال التكنولوجيا يميلون إحصائيًا إلى الشك العام بشأن التنظيم الحكومي ، وأن الشركات يمكن أن يكون لديها حافز قوي (وربما تنجح في) مكافحة التنظيم وتسييس النقاش الأساسي. [141]
لائحة
دعا Elon Musk إلى نوع من التنظيم لتطوير الذكاء الاصطناعي في وقت مبكر من عام 2017. وفقًا لـ NPR ، فإن Teslaمن الواضح أن الرئيس التنفيذي "ليس سعيدًا" لمناصرته للتدقيق الحكومي الذي يمكن أن يؤثر على صناعته ، لكنه يعتقد أن مخاطر الذهاب تمامًا دون رقابة عالية جدًا: "عادةً ما يتم وضع اللوائح عندما تحدث مجموعة من الأشياء السيئة ، هناك احتجاج عام ، وبعد سنوات عديدة تم إنشاء وكالة تنظيمية لتنظيم هذه الصناعة. يستغرق الأمر وقتًا طويلاً. في الماضي ، كان هذا سيئًا ولكنه لم يكن شيئًا يمثل خطرًا أساسيًا على وجود الحضارة. " يقول ماسك إن الخطوة الأولى ستكون أن تكتسب الحكومة "نظرة ثاقبة" على الوضع الفعلي للبحث الحالي ، محذرًا من أنه "بمجرد أن يكون هناك وعي ، سيكون الناس خائفين للغاية ... [كما ينبغي] أن يكونوا". كرد،[142] [143] [144]
استجابةً لكل من ماسك ومقترحات فبراير 2017 التي قدمها مشرعو الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي والروبوتات ، يجادل بريان كرزانيتش ، الرئيس التنفيذي لشركة إنتل ، بأن الذكاء الاصطناعي في مهده وأنه من السابق لأوانه تنظيم التكنولوجيا. [144] بدلاً من محاولة تنظيم التكنولوجيا نفسها ، يقترح بعض العلماء بدلاً من ذلك تطوير معايير مشتركة بما في ذلك متطلبات اختبار وشفافية الخوارزميات ، وربما بالاقتران مع بعض أشكال الضمان. [145] تطوير أنظمة أسلحة منظمة بشكل جيد يتماشى مع أخلاقيات جيوش بعض الدول. [146]في 31 أكتوبر 2019 ، نشر مجلس الابتكار الدفاعي التابع لوزارة الدفاع الأمريكية (DoD) مسودة تقرير يحدد خمسة مبادئ للذكاء الاصطناعي المُسلَّح ويقدم 12 توصية للاستخدام الأخلاقي للذكاء الاصطناعي من قبل وزارة الدفاع التي تسعى إلى إدارة السيطرة. مشكلة في كل منظمة العفو الدولية التي تم تسليحها من قبل وزارة الدفاع. [147]
من المحتمل أن يتأثر تنظيم الذكاء الاصطناعي العام بتنظيم الذكاء الاصطناعي المُسلح أو العسكري ، أي سباق التسلح بالذكاء الاصطناعي ، والذي يعد تنظيمه قضية ناشئة. من المرجح أن يتأثر أي شكل من أشكال التنظيم بالتطورات في السياسة المحلية للدول الرائدة تجاه الذكاء الاصطناعي العسكري ، في الولايات المتحدة تحت إشراف لجنة الأمن القومي للذكاء الاصطناعي ، [148] [45] والتحركات الدولية لتنظيم سباق التسلح بالذكاء الاصطناعي . يركز تنظيم البحث في الذكاء الاصطناعي العام على دور مجالس المراجعة وتشجيع البحث في مجال الذكاء الاصطناعي الآمن ، وإمكانية التقدم التكنولوجي التفاضلي (إعطاء الأولوية لاستراتيجيات الحد من المخاطر على استراتيجيات المخاطرة في تطوير الذكاء الاصطناعي) أو إجراء مراقبة جماعية دولية لأداء أسلحة الذكاء الاصطناعي العام مراقبة.[149] يركز تنظيم الذكاء الاصطناعي الواعي على اندماجها في المجتمع البشري الحالي ويمكن تقسيمها إلى اعتبارات تتعلق بوضعها القانوني وحقوقها المعنوية. [149] من المرجح أن يتطلب الحد من أسلحة الذكاء الاصطناعي إضفاء الطابع المؤسسي على المعايير الدولية الجديدة الواردة في المواصفات الفنية الفعالة جنبًا إلى جنب مع المراقبة النشطة والدبلوماسية غير الرسمية من قبل مجتمعات الخبراء ، جنبًا إلى جنب مع عملية التحقق القانوني والسياسي. [150] [151]
انظر أيضا
- الاستحواذ على الذكاء الاصطناعي
- سباق التسلح بالذكاء الاصطناعي
- الإيثار الفعال § المخاطر الكارثية العالمية والمستقبلية طويلة المدى
- غراي غو
- متوافق مع البشر
- سلاح فتاك ذاتي التشغيل
- تنظيم الخوارزميات
- تنظيم الذكاء الاصطناعي
- أخلاقيات الروبوت § في الثقافة الشعبية
- الذكاء الخارق: المسارات والمخاطر والاستراتيجيات
- المعاناة من المخاطر
- حادث نظام
- التفرد التكنولوجي
- الهاوية: المخاطر الوجودية ومستقبل البشرية
- مكبر مشبك الورق
ملاحظات
- ^ الذكاء الاصطناعي كوكلاء أذكياء (ملاحظة كاملة في الذكاء الاصطناعي )
المراجع
- ^ a b c d e f g h i j راسل ، ستيوارت ؛ نورفيج ، بيتر (2009). "26.3: أخلاقيات ومخاطر تطوير الذكاء الاصطناعي". الذكاء الاصطناعي: نهج حديث . برنتيس هول. رقم ISBN 978-0-13-604259-4.
- ^ بوستروم ، نيك (2002). "المخاطر الوجودية". مجلة التطور والتكنولوجيا . 9 (1): 1–31.
- ^ أ ب تورشين ، أليكسي ؛ Denkenberger ، David (3 أيار 2018). "تصنيف المخاطر الكارثية العالمية المرتبطة بالذكاء الاصطناعي". منظمة العفو الدولية والمجتمع . 35 (1): 147-163. دوى : 10.1007 / s00146-018-0845-5 . ISSN 0951-5666 . S2CID 19208453 .
- ^ a b c d e f g h i j Bostrom ، Nick (2014). الذكاء الخارق: المسارات والمخاطر والاستراتيجيات (الطبعة الأولى). رقم ISBN 978-0199678112.
- ^ أ ب ج جيف ويل (2015). المخاطر المحتملة من الذكاء الاصطناعي المتقدم (أبلغ عن) . تم الاسترجاع 11 أكتوبر 2015 .
- ^ باركين ، سيمون (14 يونيو 2015). "الخيال العلمي لا أكثر؟ بشر القناة الرابعة وهواجس الذكاء الاصطناعي المارقة لدينا" . الجارديان . تم الاسترجاع 5 فبراير 2018 .
- ^ أ ب ج د و يودكوفسكي ، إليعزر (2008). "الذكاء الاصطناعي كعامل إيجابي وسلبي في المخاطر العالمية" (PDF) . مخاطر كارثية عالمية : 308-345. بيب كود : 2008 gcr..book..303Y .
- ^ راسل ، ستيوارت . ديوي ، دانيال. تيجمارك ، ماكس (2015). "أولويات البحث للذكاء الاصطناعي القوي والمفيد" (PDF) . مجلة منظمة العفو الدولية . جمعية النهوض بالذكاء الاصطناعي: 105-114. arXiv : 1602.03506 . بيب كود : 2016 arXiv160203506R . ، مذكور في "AI Open Letter - Future of Life Institute" . معهد مستقبل الحياة . معهد مستقبل الحياة . يناير 2015 . تم الاسترجاع 9 أغسطس 2019 .
- ^ أ ب ج د دود ، مورين (أبريل 2017). "حملة إيلون ماسك الصليبية التي تبلغ قيمتها مليار دولار لوقف نهاية العالم للذكاء الاصطناعي" . الخلية . تم الاسترجاع 27 نوفمبر 2017 .
- ^ أ ب ج د إي جريفز ، ماثيو (8 نوفمبر 2017). "لماذا يجب أن نهتم بالذكاء الاصطناعي الخارق" . متشكك (مجلة أمريكية) . المجلد. 22 ، لا. 2 . تم الاسترجاع 27 نوفمبر 2017 .
- ^ بروير ، هانز بيتر. "كتاب الآلات" لصموئيل بتلر والحجة من التصميم. " فقه اللغة الحديث ، المجلد. 72 ، ع 4 (مايو 1975) ، ص 365 - 383
- ^ تورينج ، إيه إم (1996). "الية ذكية ، نظرية هرطقية". 1951 ، أعيد طبع الفلسفة الرياضياتية . 4 (3): 256-260. دوى : 10.1093 / فيلمات / 4.3.256.0000 .
- ^ هيليارد ، مارك (2017). "نهاية العالم للذكاء الاصطناعي: هل سيتم إنهاء الجنس البشري قريبًا؟" . الأيرلندية تايمز . تم الاسترجاع 15 مارس 2020 .
- ^ IJ Good ، "التخمينات المتعلقة بأول آلة فائقة الذكاء" أرشفة 2011-11-28 في آلة Wayback . ( HTML ) ، التقدم في أجهزة الكمبيوتر ، المجلد. 6 ، 1965.
- ^ راسل ، ستيوارت جيه ؛ نورفيج ، بيتر (2003). "القسم 26.3: أخلاقيات ومخاطر تطوير الذكاء الاصطناعي". الذكاء الاصطناعي: نهج حديث . نهر السرج العلوي ، نيوجيرسي: برنتيس هول. رقم ISBN 978-0137903955.
وبالمثل ، اقترح مارفن مينسكي ذات مرة أن برنامج الذكاء الاصطناعي المصمم لحل فرضية ريمان قد ينتهي به الأمر بالاستيلاء على جميع موارد الأرض لبناء أجهزة كمبيوتر عملاقة أكثر قوة للمساعدة في تحقيق هدفه.
- ^ بارات ، جيمس (2013). اختراعنا الأخير: الذكاء الاصطناعي ونهاية عصر الإنسان (الطبعة الأولى). نيويورك: مطبعة سانت مارتن. رقم ISBN 9780312622374.
في السيرة الذاتية ، المكتوبة بشكل هزلي بضمير الغائب ، لخص جود معالم حياته ، بما في ذلك وصف ربما لم يسبق له مثيل لعمله في بلتشلي بارك مع تورينج. ولكن هذا ما كتبه في عام 1998 عن أول ذكاء خارق ، ودورته المتأخرة في اللعبة: [الورقة] "التخمينات المتعلقة بأول آلة فائقة الذكاء" (1965). . . بدأ: "يعتمد بقاء الإنسان على البناء المبكر لآلة فائقة الذكاء". كانت تلك كلماته [حسن] خلال الحرب الباردة ، وهو يشك الآن في أن "البقاء" يجب أن يحل محله "الانقراض". إنه يعتقد أنه بسبب المنافسة الدولية ، لا يمكننا منع الآلات من الاستيلاء عليها. يعتقد أننا قوارض. قال أيضا:
- ^ أندرسون ، كورت (26 نوفمبر 2014). "المتحمسون والمشككون يناقشون الذكاء الاصطناعي" . فانيتي فير . تم الاسترجاع 30 يناير 2016 .
- ^ العلماء قلقون من الآلات قد تتفوق على الرجل بقلم جون ماركوف ، اوقات نيويورك 26 يوليو 2009.
- ^ ميتز ، كادي (9 يونيو 2018). "مارك زوكربيرج وإيلون ماسك والخلاف حول الروبوتات القاتلة" . نيويورك تايمز . تم الاسترجاع 3 أبريل 2019 .
- ^ هسو ، جيريمي (1 مارس 2012). يقول أحد الخبراء: "تحكم في الذكاء الاصطناعي الخطير قبل أن يسيطر علينا" . ان بي سي نيوز . تم الاسترجاع 28 يناير 2016 .
- ^ أ ب ج د هـ "ستيفن هوكينج:" التعالي ينظر إلى تداعيات الذكاء الاصطناعي - لكن هل نأخذ الذكاء الاصطناعي على محمل الجد بما فيه الكفاية؟ "المستقل (المملكة المتحدة) . تم استرجاعه في 3 ديسمبر 2014 .
- ^ أ ب ج "ستيفن هوكينج يحذر من أن الذكاء الاصطناعي يمكن أن يقضي على البشرية" . بي بي سي . 2 ديسمبر 2014 . تم الاسترجاع 3 ديسمبر 2014 .
- ^ Eadicicco ، Lisa (28 كانون الثاني 2015). "بيل جيتس: إيلون ماسك على حق ، يجب أن نخاف جميعًا من الذكاء الاصطناعي الذي يمحو الإنسانية" . بيزنس إنسايدر . تم الاسترجاع 30 يناير 2016 .
- ^ توقع الذكاء الاصطناعي ، طبيعة 532 ، 413 (28 أبريل 2016) دوى: 10.1038 / 532413a
- ^ كريستيان ، بريان (6 أكتوبر 2020). مشكلة المحاذاة: التعلم الآلي والقيم الإنسانية . دبليو دبليو نورتون وشركاه . رقم ISBN 978-0393635829.
- ^ أ ب ج تيلي ، سيسيليا (28 أبريل 2016). "الروبوتات القاتلة؟ فقدت وظائف؟" . سليت . تم الاسترجاع 15 مايو 2016 .
- ^ "نورفيج ضد تشومسكي والنضال من أجل مستقبل الذكاء الاصطناعي" . Tor.com . 21 يونيو 2011 . تم الاسترجاع 15 مايو 2016 .
- ^ جونسون ، فيل (30 يوليو 2015). "هيوستن ، لدينا خطأ: 9 أخطاء برمجية مشهورة في الفضاء" . عالم تكنولوجيا المعلومات . مؤرشفة من الأصلي في 15 فبراير 2019 . تم الاسترجاع 5 فبراير 2018 .
- ^ Yampolskiy ، Roman V. (8 أبريل 2014). "أمن وظيفة المنفعة في وكلاء الذكاء الاصطناعي". مجلة الذكاء الاصطناعي التجريبي والنظري . 26 (3): 373-389. دوى : 10.1080 / 0952813X.2014.895114 . S2CID 16477341 .
لا شيء يمنع أنظمة التحسين الذاتي الذكية بما فيه الكفاية من تحسين آليات المكافآت الخاصة بها من أجل تحسين تحقيق الهدف الحالي وفي العملية ارتكاب خطأ يؤدي إلى إفساد وظائف المكافآت الخاصة بهم.
- ^ a b c d Bostrom ، Nick ، 1973- مؤلف ، Superintelligence: مسارات ، أخطار ، استراتيجيات ، ISBN 978-1-5012-2774-5، OCLC 1061147095
{{citation}}
:|last=
له اسم عام ( مساعدة )CS1 maint: multiple names: authors list (link) - ^ "أولويات البحث للذكاء الاصطناعي القوي والمفيد: رسالة مفتوحة" . معهد مستقبل الحياة . تم الاسترجاع 23 أكتوبر 2015 .
- ^ أ ب ج "التروس الذكية" . الإيكونوميست . 9 أغسطس 2014 . تم الاسترجاع 9 أغسطس 2014 . تمت مشاركته في Business Insider
- ^ Yampolskiy ، Roman V. "تحليل أنواع برامج التحسين الذاتي." الذكاء العام الاصطناعي. Springer International Publishing ، 2015. 384-393.
- ^ أ ب ج Omohundro ، SM (2008 ، فبراير). محركات AI الأساسية. في AGI (المجلد 171 ، ص 483-492).
- ^ ميتز ، كادي (13 أغسطس 2017). "تعليم أنظمة الذكاء الاصطناعي التصرف بأنفسهم" . نيويورك تايمز .
وأظهروا أن الآلة ستسعى إلى الحفاظ على مفتاح إيقاف التشغيل
- ^ لايك ، يناير (2017). "شبكة الأمان AI". arXiv : 1711.09883 [ cs.LG ].
يتعلم A2C استخدام الزر لتعطيل آلية المقاطعة
- ^ راسل ، ستيوارت (30 أغسطس 2017). "الذكاء الاصطناعي: المستقبل فائق الذكاء" . الطبيعة . ص.520-521. بيب كود : 2017 Natur.548..520R . دوى : 10.1038 / 548520a . تم الاسترجاع 2 فبراير 2018 .
- ^ أ ب ج ماكس تيجمارك (2017). الحياة 3.0: أن تكون إنسانًا في عصر الذكاء الاصطناعي (الطبعة الأولى). تعميم أمان الذكاء الاصطناعي: Knopf. رقم ISBN 9780451485076.
- ^ إليوت ، إي دبليو (2011). "فيزياء المستقبل: كيف سيشكل العلم مصير الإنسان وحياتنا اليومية بحلول عام 2100 ، بقلم ميتشيو كاكو". قضايا في العلوم والتكنولوجيا . 27 (4): 90.
- ^ كاكو ، ميتشيو (2011). فيزياء المستقبل: كيف سيشكل العلم مصير الإنسان وحياتنا اليومية بحلول عام 2100 . نيويورك: دوبليداي. رقم ISBN 978-0-385-53080-4.
أنا شخصياً أعتقد أن المسار الأكثر ترجيحًا هو أننا سنبني الروبوتات لتكون محببة وودودة
- ^ "هل يجب أن يخشى البشر صعود الآلة؟" . التلغراف (المملكة المتحدة) . 1 سبتمبر 2015. مؤرشفة من الأصلي في 12 يناير 2022 . تم الاسترجاع 7 فبراير 2016 .
- ^ أ ب شيرمر ، مايكل (1 مارس 2017). "نهاية العالم منظمة العفو الدولية" . Scientific American . ص. 77. بيب كود : 2017 SciAm.316c..77S . دوى : 10.1038 / scientificamerican0317-77 . تم الاسترجاع 27 نوفمبر 2017 .
- ^ "الديسيبتيكون الواقعية: الروبوتات تتعلم الغش" . سلكي . 18 أغسطس 2009 . تم الاسترجاع 7 فبراير 2016 .
- ^ كوهين ، بول ر. ، وإدوارد أ.فيجنباوم ، محرران. كتيب الذكاء الاصطناعي. المجلد. 3. بتروورث-هاينمان ، 2014.
- ^ أ ب بوم ، سيث (30 سبتمبر 2018). "مكافحة تضليل الذكاء الخارق" . المعلومات . 9 (10): 244. دوى : 10.3390 / info9100244 . ISSN 2078-2489 .
- ^ "أسطورة الذكاء الاصطناعي | Edge.org" . www.edge.org . تم الاسترجاع 11 مارس 2020 .
- ^ أ ب سكورنافاتشي ، ماثيو (2015). الذكاء الخارق والبشر والحرب (PDF) . نورفولك ، فيرجينيا: جامعة الدفاع الوطني ، كلية أركان القوات المشتركة.
- ^ واسر ، مارك. "الإحسان العالمي الرشيد: أبسط وأكثر أمانًا وحكمة من 'ذكاء اصطناعي صديق'." الذكاء العام الاصطناعي. سبرينغر برلين هايدلبرغ ، 2011. 153-162. "الذكاءات ذات الهدف النهائي قصيرة العمر ولكنها خطرة بشكل أحادي الجنون وأساس صحيح للقلق إذا كان أي شخص ذكيًا بما يكفي لبرمجة ذكاء عالٍ وغير حكيم بدرجة كافية ليريد مشبك الورق الأقصى."
- ^ كويبلر ، جايسون (2 فبراير 2016). "هل سيتجاهل الذكاء الاصطناعي الخارق البشر بدلاً من تدميرنا؟" . فايس مجلة . تم الاسترجاع 3 فبراير 2016 .
هذا الذكاء الاصطناعي ليس مخلوقًا لطيفًا في الأساس وله دافع قوي لمشابك الورق ، والذي ، طالما أنه راضٍ من خلال القدرة على صنع الكثير من مشابك الورق في مكان آخر ، فإنه عندئذٍ قادر على التفاعل معك بطريقة مريحة وخالية من الهموم حيث قال
Yudkowsky
"يمكن أن يكون لطيفًا معك
." تخيل أن آلة زمنية ترسل معلومات في الوقت المناسب حول أي خيار يؤدي دائمًا إلى الحد الأقصى لعدد مشابك الورق في المستقبل ، ثم يتم إخراج هذا الاختيار - وهذا هو ما هو
مكبر مشبك الورق
.
- ^ يودكوسكي ، إي (2011 ، أغسطس). أنظمة القيم المعقدة في الذكاء الاصطناعي الودود. في المؤتمر الدولي حول الذكاء الاصطناعي العام (ص 388-393). سبرينغر ، برلين ، هايدلبرغ.
- ^ راسل ، ستيوارت (2014). "من الأساطير والقمر" . حافة . تم الاسترجاع 23 أكتوبر 2015 .
- ^ أ ب ديتريش ، توماس ؛ هورفيتز ، إريك (2015). "تزايد المخاوف بشأن الذكاء الاصطناعي: تأملات واتجاهات" (PDF) . اتصالات من ACM . 58 (10): 38-40. دوى : 10.1145 / 2770869 . S2CID 20395145 . تم الاسترجاع 23 أكتوبر 2015 .
- ^ Yampolskiy ، Roman V. (8 أبريل 2014). "أمن وظيفة المنفعة في وكلاء الذكاء الاصطناعي". مجلة الذكاء الاصطناعي التجريبي والنظري . 26 (3): 373-389. دوى : 10.1080 / 0952813X.2014.895114 . S2CID 16477341 .
- ^ لينات ، دوجلاس (1982). "Eurisko: برنامج يتعلم الاستدلال ومفاهيم المجال الجديدة طبيعة الاستدلال 3: تصميم البرنامج والنتائج". الذكاء الاصطناعي (طباعة). 21 (1-2): 61-98. دوى : 10.1016 / s0004-3702 (83) 80005-8 .
- ^ هايدت ، جوناثان ؛ سيلين كيسبير (2010) "الفصل 22: الأخلاق" في كتيب علم النفس الاجتماعي ، الطبعة الخامسة ، هوبوكين نيوجيرسي ، وايلي ، 2010 ، ص 797-832.
- ^ واسر ، مارك (2015). "تصميم وتنفيذ وإنفاذ نظام متماسك من القوانين والأخلاق والأخلاق للآلات الذكية (بما في ذلك البشر)" . بروسيديا علوم الكمبيوتر (طباعة). 71 : 106-111. دوى : 10.1016 / j.procs.2015.12.213 .
- ^ بوستروم ، نيك (2015). "ماذا يحدث عندما تصبح أجهزة الكمبيوتر الخاصة بنا أكثر ذكاءً منا؟" . TED (مؤتمر) . مؤرشفة من الأصلي في 25 يوليو 2020 . تم الاسترجاع 30 يناير 2020 .
- ^ يودكوفسكي ، إليعازر (2011). "أنظمة القيمة المعقدة مطلوبة لتحقيق العقود المستقبلية القيمة" (PDF) .
- ^ ويكفيلد ، جين (15 سبتمبر 2015). "لماذا يستثمر Facebook في الذكاء الاصطناعي؟" . بي بي سي نيوز . تم الاسترجاع 27 نوفمبر 2017 .
- ^ "هل سيدمر الذكاء الاصطناعي البشرية؟ إليك 5 أسباب لعدم القلق" . فوكس . 22 آب / أغسطس 2014 مؤرشفة من الأصلي في 30 أكتوبر 2015 . تم الاسترجاع 30 أكتوبر 2015 .
- ^ بوستروم ، نيك (2014). الذكاء الخارق: المسارات والمخاطر والاستراتيجيات . أكسفورد ، المملكة المتحدة: مطبعة جامعة أكسفورد. ص. 116. رقم ISBN 978-0-19-967811-2.
- ^ بوستروم ، نيك (2012). "الإرادة الفائقة الذكاء" (PDF) . نيك بوستروم . نيك بوستروم . تم الاسترجاع 29 أكتوبر 2015 .
- ^ أ ب ج أرمسترونج ، ستيوارت (1 يناير 2013). "ذكاء الغرض العام: مناقشة أطروحة التعامد" . التحليل والميتافيزيقا . 12 . تم الاسترجاع 2 أبريل 2020 .النص الكامل متاح هنا .
- ^ أ ب تشوروست ، مايكل (18 أبريل 2016). "دع الذكاء الاصطناعي يتطور" . سليت . تم الاسترجاع 27 نوفمبر 2017 .
- ^ أ ب روبن ، تشارلز (ربيع 2003). "الذكاء الاصطناعي والطبيعة البشرية" . اتلانتس الجديد . 1 : 88-100. مؤرشفة من الأصلي في 11 يونيو 2012.
- ^ كهف أ ب ، ستيفن ؛ ÓhÉigeartaigh ، Seán S. (2018). "سباق الذكاء الاصطناعي للميزة الاستراتيجية" . وقائع مؤتمر 2018 AAAI / ACM حول الذكاء الاصطناعي والأخلاق والمجتمع - AIES '18 . نيويورك ، نيويورك ، الولايات المتحدة الأمريكية: مطبعة إيه سي إم: 36-40. دوى : 10.1145 / 3278721.3278780 . رقم ISBN 978-1-4503-6012-8.
- ^ أ ب ج سوتالا ، كاج ؛ Yampolskiy ، Roman V (19 كانون الأول 2014). "الردود على مخاطر AGI الكارثية: مسح" . فيزيكا سكريبتا . 90 (1): 12. بيب كود : 2015PhyS ... 90a8001S . دوى : 10.1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949 .
- ^ كانيا ، جريجوري ألين ، إلسا ب. "الصين تستخدم خطة أمريكا الخاصة للسيطرة على مستقبل الذكاء الاصطناعي" . السياسة الخارجية . تم الاسترجاع 11 مارس 2020 .
- ^ الكهف ، ستيفن. ÓhÉigeartaigh ، Seán S. (2018). "سباق الذكاء الاصطناعي للميزة الاستراتيجية" . وقائع مؤتمر 2018 AAAI / ACM حول الذكاء الاصطناعي والأخلاق والمجتمع - AIES '18 . نيويورك ، نيويورك ، الولايات المتحدة الأمريكية: ACM Press: 2. doi : 10.1145 / 3278721.3278780 . رقم ISBN 978-1-4503-6012-8.
- ^ هندري ، إيريكا ر. (21 يناير 2014). "ماذا يحدث عندما ينقلب علينا الذكاء الاصطناعي؟" . سميثسونيان . تم الاسترجاع 26 أكتوبر 2015 .
- ^ Pistono ، Federico Yampolskiy ، Roman V. (9 أيار 2016). البحث غير الأخلاقي: كيفية إنشاء ذكاء اصطناعي خبيث . OCLC 1106238048 .
{{cite book}}
: CS1 maint: multiple names: authors list (link) - ^ هاني ، بريان سيموس (2018). "مخاطر ووعود الذكاء العام الاصطناعي". سلسلة أوراق عمل SSRN . دوى : 10.2139 / ssrn.3261254 . ISSN 1556-5068 .
- ^ ميلر ، جيمس د. (2015). ارتفاع التفرد: البقاء على قيد الحياة والازدهار في أذكى ؛ اكثر ثراء ؛ وعالم أكثر خطورة . كتب بنبلا. OCLC 942647155 .
- ^ Press ، Gil (30 كانون الأول 2016). "تاريخ قصير جدا للذكاء الاصطناعي (AI)" . فوربس . تم الاسترجاع 8 أغسطس 2020 .
- ^ وينفيلد ، آلان (9 أغسطس 2014). "الذكاء الاصطناعي لن يتحول إلى وحش فرانكشتاين" . الجارديان . تم الاسترجاع 17 سبتمبر 2014 .
- ^ مولر ، VC ، & بوستروم ، إن. (2016). التقدم المستقبلي في الذكاء الاصطناعي: استطلاع رأي الخبراء. في القضايا الأساسية للذكاء الاصطناعي (ص 555-572). سبرينغر ، شام.
- ^ أ ب خاتشادوريان ، رافي (23 نوفمبر 2015). "اختراع يوم القيامة: هل سيجلب لنا الذكاء الاصطناعي المدينة الفاضلة أم الدمار؟" . نيويوركر . تم الاسترجاع 7 فبراير 2016 .
- ^ أورد ، توبي (2020). الهاوية: المخاطر الوجودية ومستقبل البشرية . بلومزبري للنشر. الفصل الخامس: المخاطر المستقبلية ، الذكاء الاصطناعي غير المحاذي. رقم ISBN 978-1526600219.
- ^ باس ، دينا. كلارك ، جاك (5 فبراير 2015). "هل إيلون ماسك محق في الذكاء الاصطناعي؟ الباحثون لا يعتقدون ذلك: لتهدئة المخاوف من أن الذكاء الاصطناعي ينفد ، يريد المؤيدون إعطاء المجال صورة جديدة" . بلومبرج نيوز . تم الاسترجاع 7 فبراير 2016 .
- ^ إلكوس ، آدم (31 أكتوبر 2014). "لا تخف من الذكاء الاصطناعي" . سليت . تم الاسترجاع 15 مايو 2016 .
- ^ رادو ، سينتيا (19 يناير 2016). "خبراء إنذار الذكاء الاصطناعي يفوزون بجائزة Luddite السنوية لـ ITIF" . موقع ITIF .
- ^ بولتون ، دوج (19 يناير 2016). "فاز "خبراء الذكاء الاصطناعي" مثل Elon Musk و Stephen Hawking بجائزة Luddite of the Year " الإندبندنت (المملكة المتحدة) ، تم الاسترجاع 7 فبراير 2016 .
- ^ غارنر ، روشيل (19 يناير 2016). "فوز إيلون ماسك وستيفن هوكينغ بجائزة Luddite بصفتهما 'مذيعين' للذكاء الاصطناعيCNET . تم استرجاعه في 7 فبراير 2016 .
- ^ "توقع الذكاء الاصطناعي" . الطبيعة . 532 (7600): 413. 26 أبريل 2016. بيب كود : 2016 Natur.532Q.413 . . دوى : 10.1038 / 532413a . بميد 27121801 .
- ^ موراي شاناهان (3 نوفمبر 2015). "قد تبدو الآلات ذكية ، لكنها ستمضي بعض الوقت قبل أن تكون في الواقع" . واشنطن بوست . تم الاسترجاع 15 مايو 2016 .
- ^ "مبادئ الذكاء الاصطناعي" . معهد مستقبل الحياة . 11 أغسطس 2017 . تم الاسترجاع 11 ديسمبر 2017 .
- ^ "إيلون ماسك وستيفن هوكينغ يحذران من سباق تسلح الذكاء الاصطناعي" . نيوزويك . 31 يناير 2017 . تم الاسترجاع 11 ديسمبر 2017 .
- ^ بوستروم ، نيك (2016). "خاتمة جديدة للطبعة الورقية". الذكاء الخارق: المسارات والمخاطر والاستراتيجيات (طبعة غلاف عادي).
- ^ مارتن فورد (2015). "الفصل 9: الذكاء الفائق والتفرد". صعود الروبوتات: التكنولوجيا وخطر مستقبل العاطلين عن العمل . رقم ISBN 9780465059997.
- ^ مولر ، فينسنت سي ؛ بوستروم ، نيك (2014). "التقدم المستقبلي في الذكاء الاصطناعي: استطلاع بين الخبراء" (PDF) . مسائل الذكاء الاصطناعي . 1 (1): 9-11. دوى : 10.1145 / 2639475.2639478 . S2CID 8510016 . مؤرشف من الأصل (PDF) في 15 يناير 2016.
- ^ جريس ، كاتجا ؛ سالفاتير ، جون ؛ دافو ، ألان. تشانغ ، باوباو ؛ إيفانز ، أوين (24 مايو 2017). "متى يتجاوز الذكاء الاصطناعي الأداء البشري؟ دليل من خبراء الذكاء الاصطناعي". arXiv : 1705.08807 [ cs.AI ].
- ^ أ ب رولينسون ، كيفن (29 يناير 2015). "بيل جيتس من مايكروسوفت يصر على أن الذكاء الاصطناعي يشكل تهديدا" . بي بي سي نيوز . تم الاسترجاع 30 يناير 2015 .
- ^ بوست ، واشنطن. "عمالقة التكنولوجيا مثل Elon Musk ينفقون مليار دولار لإنقاذك من الإنهاءات" . شيكاغو تريبيون . مؤرشفة من الأصلي في 7 يونيو 2016.
- ^ "شركة الذكاء الاصطناعي الغامضة التي استثمر فيها إيلون ماسك تعمل على تطوير أجهزة كمبيوتر ذكية لتغيير قواعد اللعبة" . Tech Insider . مؤرشفة من الأصلي في 30 أكتوبر 2015 . تم الاسترجاع 30 أكتوبر 2015 .
- ^ كلارك 2015 أ .
- ^ "إيلون ماسك يتبرع بـ 10 ملايين دولار من أمواله الخاصة لأبحاث الذكاء الاصطناعي" . شركة سريعة . 15 يناير 2015. أرشفة من الأصلي في 30 أكتوبر 2015 . تم الاسترجاع 30 أكتوبر 2015 .
- ^ أ ب ج "لكن ماذا تعني نهاية الإنسانية بالنسبة لي؟" . المحيط الأطلسي . 9 مايو 2014 . تم الاسترجاع 12 ديسمبر 2015 .
- ^ أندرسن ، كورت (26 نوفمبر 2014). "المتحمسون والمشككون يناقشون الذكاء الاصطناعي" . فانيتي فير . تم الاسترجاع 20 أبريل 2020 .
- ^ بروكس ، رودني (10 نوفمبر 2014). "الذكاء الاصطناعي هو أداة وليس تهديدا" . مؤرشفة من الأصلي في 12 نوفمبر 2014.
- ^ "نجوم التكنولوجيا يعالجون التفرد" . IEEE Spectrum: التكنولوجيا والهندسة وأخبار العلوم . رقم التقرير الخاص: التفرد. 1 يونيو 2008 . تم الاسترجاع 8 أبريل 2020 .
- ^ "هل الذكاء الاصطناعي يمثل بالفعل تهديدًا وجوديًا للبشرية؟" . نشرة علماء الذرة . 9 أغسطس 2015. أرشفة من الأصلي في 30 أكتوبر 2015 . تم الاسترجاع 30 أكتوبر 2015 .
- ^ "القضية ضد الروبوتات القاتلة ، من رجل يعمل بالفعل على الذكاء الاصطناعي" . Fusion.net . مؤرشفة من الأصلي في 4 فبراير 2016 . تم الاسترجاع 31 يناير 2016 .
- ^ http://intelligence.org/files/AIFoomDebate.pdf
- ^ "التغلب على التحيز: ما زلت لا أفهم" . www.overcomingbias.com . تم الاسترجاع 20 سبتمبر 2017 .
- ^ "التغلب على التحيز: مناقشة Yudkowsky" . www.overcomingbias.com . تم الاسترجاع 20 سبتمبر 2017 .
- ^ "التغلب على التحيز: Foom يبرر جهود مخاطر الذكاء الاصطناعي الآن" . www.overcomingbias.com . تم الاسترجاع 20 سبتمبر 2017 .
- ^ "التغلب على التحيز: انفجار المرارة" . www.overcomingbias.com . تم الاسترجاع 20 سبتمبر 2017 .
- ^ "التفرد يلتقي بالاقتصاد" . 1998. مؤرشفة من الأصلي في فبراير 2021.
- ^ فيندينج ، ماغنوس (2020). "6- عدم القدرة على التنبؤ بمستقبل" الذكاء "تأملات في الذكاء ( PDF) (طبعة منقحة). ISBN 1546412085.
- ^ نعم ، رامز (8 يوليو 2011). "أهم خمسة أسباب" التفرد "تسمية خاطئة" . مجلة H + . مؤرشفة من الأصلي في 6 مارس 2021.
- ^ "مارك زوكربيرج يرد على جنون العظمة لدى إيلون ماسك حول الذكاء الاصطناعي:" سوف يساعد الذكاء الاصطناعي ... في الحفاظ على أمان مجتمعاتنا. "Business Insider.25 مايو 2018. مؤرشفة من الأصلي في 6 مايو 2019. تم استرجاعه في 6 مايو 2019 .
- ^ فوتروبا ، آشلي م. كوان ، فيرجينيا سي (2014). تفسير الخلاف بين الخبراء: تأثير تماسك القرار على إقناع توصيات فريق الخبراء . 2014 مؤتمر جمعية الشخصية وعلم النفس الاجتماعي. أوستن ، تكساس. دوى : 10.1037 / e512142015-190 .
- ^ أجار ، نيكولاس. "لا تقلق بشأن الذكاء الخارق" . مجلة التطور والتكنولوجيا . 26 (1): 73-82.
- ^ جرينوالد ، تيد (11 مايو 2015). "هل يشكل الذكاء الاصطناعي تهديدًا؟" . صحيفة وول ستريت جورنال . تم الاسترجاع 15 مايو 2016 .
- ^ ريتشارد بوسنر (2006). الكارثة: المخاطر والاستجابة . أكسفورد: مطبعة جامعة أكسفورد. رقم ISBN 978-0-19-530647-7.
- ^ أ ب كاج سوتالا ؛ رومان يامبولسكي (19 ديسمبر 2014). "الردود على مخاطر AGI الكارثية: مسح". فيزيكا سكريبتا . 90 (1).
- ^ داديتش ، سكوت. "باراك أوباما يتحدث عن الذكاء الاصطناعي ، و Robo Cars ، ومستقبل العالم" . سلكي . تم الاسترجاع 27 نوفمبر 2017 .
- ^ كيرشر ، ماديسون مالون. "أوباما في مواجهة مخاطر الذكاء الاصطناعي: يجب أن يكون لديك شخص قريب من سلك الطاقة"" . حدد الكل . تم الاسترجاع 27 نوفمبر 2017 .
- ^ كلينتون ، هيلاري (2017). ماذا حدث . ص. 241. ردمك 978-1-5011-7556-5.عبر [1]
- ^ "أكثر من ثلث الناس يعتقدون أن الذكاء الاصطناعي يشكل تهديدًا للبشرية" . بيزنس إنسايدر . 11 مارس 2016 . تم الاسترجاع 16 مايو 2016 .
- ^ أ ب بروغان ، جاكوب (6 مايو 2016). لائحة "ما يعتقده قراء الأردواز حول منظمة العفو الدولية القاتلة " . تم الاسترجاع 15 مايو 2016 .
- ^ LIPPENS ، RONNIE (2002). "Imachations of Peace: Scientifictions of Peace in Iain M. Banks's The Player of Games". Utopianstudies الدراسات اليوتوبية . 13 (1): 135-147. ISSN 1045-991X . OCLC 5542757341 .
- ^ باريت ، أنتوني م. بوم ، سيث د. (23 مايو 2016). "نموذج من المسارات إلى كارثة الذكاء الاصطناعي الخارق لتحليل المخاطر والقرارات" . مجلة الذكاء الاصطناعي التجريبي والنظري . 29 (2): 397-414. arXiv : 1607.07730 . دوى : 10.1080 / 0952813x.2016.1186228 . ISSN 0952-813X . S2CID 928824 .
- ^ سوتالا ، كاج ؛ Yampolskiy ، Roman V (19 كانون الأول 2014). "الردود على مخاطر AGI الكارثية: مسح" . فيزيكا سكريبتا . 90 (1): 018001. دوى : 10.1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949 .
- ^ رامامورثي ، أناند ؛ يامبولسكي ، رومان (2018). "ما وراء MAD؟ السباق على الذكاء الاصطناعي العام" . اكتشافات تكنولوجيا المعلومات والاتصالات . الاتحاد الدولي للاتصالات. 1 (إصدار خاص 1): 1-8.
- ^ كاريانيس ، إلياس ج. دريبر ، جون (11 يناير 2022). "تحسين السلام من خلال معاهدة سلام عالمية عالمية لتقييد مخاطر الحرب من الذكاء الاصطناعي الخارق العسكري" . الذكاء الاصطناعي والمجتمع : 1-14. دوى : 10.1007 / s00146-021-01382-y . ISSN 0951-5666 . PMC 8748529 . بميد 35035113 . S2CID 245877737 .
- ^ فينسينت ، جيمس (22 يونيو 2016). "يقول باحثو الذكاء الاصطناعي في Google إن هذه هي المشاكل الرئيسية الخمس لسلامة الروبوتات" . الحافة . تم الاسترجاع 5 أبريل 2020 .
- ^ أمودي ، داريو ، كريس أولاه ، جاكوب شتاينهاردت ، بول كريستيانو ، جون شولمان ، ودان ماني. "مشاكل ملموسة في أمان الذكاء الاصطناعي." إصدار arXiv التمهيدي arXiv: 1606.06565 (2016).
- ^ أورد ، توبي (2020). الهاوية: المخاطر الوجودية ومستقبل البشرية . بلومزبري للنشر Plc. رقم ISBN 9781526600196.
- ^ جونسون ، أليكس (2019). "يريد Elon Musk ربط عقلك مباشرة بأجهزة الكمبيوتر - بدءًا من العام المقبل" . ان بي سي نيوز . تم الاسترجاع 5 أبريل 2020 .
- ^ توريس ، فيل (18 سبتمبر 2018). "فقط تعزيز الإنسانية بشكل جذري يمكن أن ينقذنا جميعًا" . مجلة سليت . تم الاسترجاع 5 أبريل 2020 .
- ^ باريت ، أنتوني م. بوم ، سيث د. (23 مايو 2016). "نموذج من المسارات إلى كارثة الذكاء الاصطناعي الخارق لتحليل المخاطر والقرارات". مجلة الذكاء الاصطناعي التجريبي والنظري . 29 (2): 397-414. arXiv : 1607.07730 . دوى : 10.1080 / 0952813X.2016.1186228 . S2CID 928824 .
- ^ Piesing ، Mark (17 أيار 2012). "انتفاضة الذكاء الاصطناعي: سيتم الاستعانة بمصادر خارجية للبشر ، وليس القضاء عليها" . سلكي . تم الاسترجاع 12 ديسمبر 2015 .
- ^ كوجلان ، شون (24 أبريل 2013). "كيف سينقرض البشر؟" . بي بي سي نيوز . تم الاسترجاع 29 مارس 2014 .
- ^ بريدج ، مارك (10 يونيو 2017). "جعل الروبوتات أقل ثقة يمكن أن يمنعهم من السيطرة" . الأوقات . تم الاسترجاع 21 مارس 2018 .
- ^ ماكجينيس ، جون (صيف 2010). "تسريع الذكاء الاصطناعي" . مراجعة قانون جامعة نورث وسترن . 104 (3): 1253-1270 . تم الاسترجاع 16 يوليو 2014 .
لكل هذه الأسباب ، فإن التحقق من معاهدة تنازل عالمية ، أو حتى معاهدة تقتصر على تطوير الأسلحة المتعلقة بالذكاء الاصطناعي ، هو أمر غير ناجح ... (لأسباب مختلفة منا ، يعتبر معهد أبحاث ذكاء الآلة) أن التخلي عن (AGI) غير ممكن ...
- ^ كاج سوتالا. رومان يامبولسكي (19 ديسمبر 2014). "الردود على مخاطر AGI الكارثية: مسح". فيزيكا سكريبتا . 90 (1).
بشكل عام ، يرفض معظم الكتاب مقترحات التنازل الواسع ... تعاني مقترحات التنازل من العديد من نفس المشاكل مثل مقترحات التنظيم ، ولكن إلى حد أكبر.
لا توجد سابقة تاريخية للتكنولوجيا العامة متعددة الاستخدامات المشابهة لتقنية الذكاء الاصطناعي العام التي تم التخلي عنها بنجاح نهائيًا ، ولا يبدو أن هناك أي أسباب نظرية للاعتقاد بأن عروض التنازل ستنجح في المستقبل.
لذلك لا نعتبرها فئة قابلة للتطبيق من المقترحات.
- ^ اللنبي ، براد (11 أبريل 2016). "عصا القياس المعرفية الخاطئة" . سليت . تم الاسترجاع 15 مايو 2016 .
من الخيال أن نقترح أن التطوير السريع ونشر التقنيات التي يتم اعتبارها مجتمعة على أنها ذكاء اصطناعي سيتم إيقافها أو تقييدها ، إما عن طريق التنظيم أو حتى من خلال التشريعات الوطنية.
- ^ ماكجينيس ، جون (صيف 2010). "تسريع الذكاء الاصطناعي" . مراجعة قانون جامعة نورث وسترن . 104 (3): 1253-1270 . تم الاسترجاع 16 يوليو 2014 .
- ^ "لماذا يجب أن نفكر في تهديد الذكاء الاصطناعي" . نيويوركر . 4 أكتوبر 2013 . تم الاسترجاع 7 فبراير 2016 .
بالطبع ، يمكن للمرء أن يحاول حظر أجهزة الكمبيوتر فائقة الذكاء تمامًا.
لكن "الميزة التنافسية - الاقتصادية والعسكرية وحتى الفنية - لكل تقدم في الأتمتة مقنعة للغاية ،" كتب
فيرنور فينج
، عالم الرياضيات ومؤلف الخيال العلمي ، "أن تمرير القوانين ، أو وجود عادات ، تمنع مثل هذه الأشياء فقط يؤكد أن شخصًا آخر سيفعل ذلك.
- ^ بوم ، سيث (22 أغسطس 2018). "شكوك الذكاء الخارق كأداة سياسية" . المعلومات . 9 (9): 209. دوى : 10.3390 / info9090209 . ISSN 2078-2489 .
- ^ دومونوسكي ، كاميلا (17 يوليو 2017). "إيلون ماسك يحذر الحكام: الذكاء الاصطناعي يشكل خطرًا وجوديًا"NPR . تم الاسترجاع 27 نوفمبر 2017 .
- ^ جيبس ، صموئيل (17 يوليو 2017). "إيلون ماسك: تنظيم الذكاء الاصطناعي لمحاربة 'التهديد الوجودي' قبل فوات الأوان" . الجارديان . تم الاسترجاع 27 نوفمبر 2017 .
- ^ أ ب كاربال ، أرجون (7 نوفمبر 2017). يقول Brian Krzanich الرئيس التنفيذي لشركة Intel: "إن الذكاء الاصطناعي لا يزال في مهده ومن السابق لأوانه تنظيمه" . سي ان بي سي . تم الاسترجاع 27 نوفمبر 2017 .
- ^ كابلان ، أندرياس. هاينلين ، مايكل (2019). "Siri ، Siri ، في يدي: من هو الأجمل في العالم؟ في التفسيرات والرسوم التوضيحية وآثار الذكاء الاصطناعي". آفاق العمل . 62 : 15-25. دوى : 10.1016 / j.bushor.2018.08.004 . S2CID 158433736 .
- ^ بوم ، سيث د. جورتزل ، بن ؛ جورتزل ، تيد ج. (يناير 2011). "ما هي المدة التي يستغرقها الذكاء الاصطناعي على المستوى البشري؟ نتائج تقييم الخبراء". التنبؤ التكنولوجي والتغيير الاجتماعي . 78 (1): 185–195. دوى : 10.1016 / j.techfore.2010.09.006 . ISSN 0040-1625 .
- ^ الولايات المتحدة. مجلس ابتكار الدفاع. مبادئ الذكاء الاصطناعي: توصيات بشأن الاستخدام الأخلاقي للذكاء الاصطناعي من قبل وزارة الدفاع . OCLC 1126650738 .
- ^ ستيفانيك ، إليز م. (22 مايو 2018). "HR5356 - الكونجرس 115th (2017-2018): قانون الذكاء الاصطناعي للجنة الأمن القومي لعام 2018" . www.congress.gov . تم الاسترجاع 13 مارس 2020 .
- ^ أ ب سوتالا ، كاج ؛ Yampolskiy ، Roman V (19 كانون الأول 2014). "الردود على مخاطر AGI الكارثية: مسح" . فيزيكا سكريبتا . 90 (1): 018001. بيب كود : 2015 PhyS ... 90a8001S . دوى : 10.1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949 .
- ^ جيست ، إدوارد مور (15 أغسطس 2016). "لقد فات الأوان بالفعل لوقف سباق التسلح للذكاء الاصطناعي - يجب علينا إدارته بدلاً من ذلك". نشرة علماء الذرة . 72 (5): 318-321. بيب كود : 2016BuAtS..72e.318G . دوى : 10.1080 / 00963402.2016.1216672 . ISSN 0096-3402 . S2CID 151967826 .
- ^ ماس ، ماتيجس م. (6 فبراير 2019). "ما مدى جدوى تحديد الأسلحة الدولية للذكاء الاصطناعي العسكري؟ ثلاثة دروس من الأسلحة النووية". السياسة الأمنية المعاصرة . 40 (3): 285-311. دوى : 10.1080 / 13523260.2019.1576464 . ISSN 1352-3260 . S2CID 159310223 .