الذكاء العام الاصطناعي

من ويكيبيديا، الموسوعة الحرة
اذهب إلى الملاحة اذهب للبحث

الذكاء الاصطناعي العام ( AGI ) هو القدرة الافتراضية [1] للعامل الذكي على فهم أو تعلم أي مهمة فكرية يستطيع الإنسان القيام بها. وهو الهدف الأساسي من بعض الذكاء الاصطناعي البحوث وموضوع مشترك في الخيال العلمي و علم المستقبل . يمكن أيضًا الإشارة إلى الذكاء الاصطناعي العام بالذكاء الاصطناعي القوي ، [2] [3] [4] الذكاء الاصطناعي الكامل ، [5] أو الإجراء الذكي العام . [6] تحتفظ بعض المصادر الأكاديمية بمصطلح "الذكاء الاصطناعي القوي" لبرامج الكمبيوتر التي يمكنها ذلكتجربة الإحساس ، الوعي الذاتي و الوعي . [7] اعتبارًا من أواخر عام 2010 ، من المتوقع أن يكون الذكاء الاصطناعي على بعد عقود من الذكاء الاصطناعي العام. [8] [9]

على عكس الذكاء الاصطناعي القوي ، لا يُقصد بالذكاء الاصطناعي الضعيف [10] (يُطلق عليه أيضًا الذكاء الاصطناعي الضيق [3] ) امتلاك قدرات وشخصية معرفية شبيهة بالإنسان ؛ بدلاً من ذلك ، يقتصر الذكاء الاصطناعي الضعيف على استخدام البرامج لدراسة أو إنجاز مهام حل المشكلات أو التفكير المنطقي المحددة مسبقًا ( الأنظمة الخبيرة ). [11]

اعتبارًا من عام 2017 ، هناك أكثر من أربعين منظمة تبحث بنشاط في الذكاء الاصطناعي العام. [12]

الخصائص

تم اقتراح معايير مختلفة للذكاء (أشهرها اختبار تورينج ) ولكن حتى الآن ، لا يوجد تعريف يرضي الجميع. [أ] ومع ذلك، هناك هو اتفاق واسع النطاق بين الباحثين الذكاء الاصطناعي أن الاستخبارات مطلوب القيام بما يلي: [14]

تشمل القدرات المهمة الأخرى القدرة على الإحساس (مثل الرؤية ) والقدرة على التصرف (مثل تحريك الأشياء ومعالجتها ) في العالم حيث يجب ملاحظة السلوك الذكي. [15] قد يشمل ذلك القدرة على اكتشاف المخاطر والاستجابة لها . [16] نهج العديد من التخصصات للاستخبارات (مثل العلوم المعرفية ، الذكاء الحسابى و اتخاذ القرارات ) تميل إلى التأكيد على ضرورة النظر في الصفات الإضافية مثل الخيال (كما اتخذت القدرة على تكوين الصور والمفاهيم التي لم تكن مبرمجة في العقلية) [17 ] والحكم الذاتي . [18] الأنظمة القائمة على الكمبيوتر والتي تظهر العديد من هذه القدرات موجودة بالفعل (على سبيل المثال انظر الإبداع الحسابي ، التفكير الآلي ، نظام دعم القرار ، الروبوت ، الحساب التطوري ، الوكيل الذكي ) ، ولكن ليس بعد على المستويات البشرية.

اختبارات لتأكيد الذكاء الاصطناعي العام على المستوى البشري

تم النظر في الاختبارات التالية لتأكيد الذكاء الاصطناعي العام على المستوى البشري: [19] [20]

اختبار تورينج ( تورينج )
تتحدث آلة وإنسان بشكل غير مرئي مع إنسان آخر ، يجب عليه تقييم أيهما هو الجهاز ، والذي يجتاز الاختبار إذا كان بإمكانه خداع المقيم جزءًا كبيرًا من الوقت. ملحوظة: لا يصف تورينج ما يجب اعتباره ذكاءً ، فقط أن معرفة أنها آلة يجب أن يستبعدها.
اختبار القهوة ( وزنياك )
مطلوب آلة لدخول منزل أمريكي عادي ومعرفة كيفية صنع القهوة: ابحث عن آلة القهوة ، وابحث عن القهوة ، وأضف الماء ، وابحث عن كوب ، وقم بتحضير القهوة بالضغط على الأزرار المناسبة.
اختبار روبوت الطالب الجامعي ( جورتزل )
تلتحق الآلة بإحدى الجامعات ، وتتلقى وتجتاز نفس الفصول الدراسية التي يقطعها البشر ، وتحصل على شهادة جامعية.
اختبار التوظيف ( نيلسون )
تؤدي الآلة وظيفة مهمة اقتصاديًا على الأقل مثل البشر في نفس الوظيفة.

المشكلات التي تتطلب حل الذكاء الاصطناعي العام

تُعرف أصعب المشكلات التي تواجه أجهزة الكمبيوتر بشكل غير رسمي باسم "AI-Complete" أو "AI-hard" ، مما يعني أن حلها يعادل الكفاءة العامة للذكاء البشري ، أو الذكاء الاصطناعي القوي ، بما يتجاوز قدرات خوارزمية محددة الغرض. [21]

وافترض مشاكل AI-كاملة لتشمل العامة رؤية الكمبيوتر ، فهم اللغة الطبيعية ، والتعامل مع الظروف غير المتوقعة في حين حل أي مشكلة في العالم الحقيقي. [22]

لا يمكن حل المشكلات الكاملة للذكاء الاصطناعي باستخدام تكنولوجيا الكمبيوتر الحالية وحدها ، وتتطلب أيضًا حسابًا بشريًا . قد تكون هذه الخاصية مفيدة ، على سبيل المثال ، لاختبار وجود البشر ، كما تهدف الكابتشا إلى القيام به ؛ ول أمن الكمبيوتر لصد هجمات القوة الغاشمة . [23] [24]

التاريخ

منظمة العفو الدولية الكلاسيكية

بدأت أبحاث الذكاء الاصطناعي الحديثة في منتصف الخمسينيات من القرن الماضي. [25] كان الجيل الأول من باحثي الذكاء الاصطناعي مقتنعين بأن الذكاء الاصطناعي العام ممكن وأنه سيكون موجودًا في غضون بضعة عقود فقط. كتب رائد الذكاء الاصطناعي هربرت أ. سايمون في عام 1965: "ستكون الآلات قادرة ، في غضون عشرين عامًا ، على القيام بأي عمل يمكن لأي إنسان القيام به". [26] كانت توقعاتهم مصدر إلهام ل ستانلي كوبريك و آرثر سي كلارك الصورة الشخصية HAL 9000 ، الذي جسد ما يعتقد الباحثون AI أنها يمكن أن تخلق بحلول عام 2001. AI رائدة مارفن مينسكي كان مستشارا [27]بشأن مشروع جعل HAL 9000 واقعيًا قدر الإمكان وفقًا لتوقعات الإجماع في ذلك الوقت ؛ اقتبس كريفير منه قوله حول هذا الموضوع في عام 1967 ، "في غضون جيل ... سيتم حل مشكلة إنشاء" ذكاء اصطناعي "بشكل جوهري" ، [28] على الرغم من أن مينسكي صرح بأنه قد تم نقله بشكل خاطئ. [ بحاجة لمصدر ]

ومع ذلك ، في أوائل السبعينيات ، أصبح من الواضح أن الباحثين قد قللوا بشكل كبير من صعوبة المشروع. أصبحت وكالات التمويل متشككة في الذكاء الاصطناعي العام ووضعت الباحثين تحت ضغط متزايد لإنتاج "ذكاء اصطناعي تطبيقي" مفيد. [ب] مع بداية الثمانينيات ، أعاد مشروع الكمبيوتر من الجيل الخامس في اليابان إحياء الاهتمام بالذكاء الاصطناعي العام ، ووضع جدول زمني مدته عشر سنوات يتضمن أهدافًا للذكاء الاصطناعي العام مثل "إجراء محادثة غير رسمية". [32] استجابةً لذلك ونجاح الأنظمة الخبيرة ، قامت كل من الصناعة والحكومة بضخ الأموال مرة أخرى في هذا المجال. [30] [33] ومع ذلك ، انهارت الثقة في الذكاء الاصطناعي بشكل مذهل في أواخر الثمانينيات ، ولم تتحقق أهداف الجيل الخامس من مشروع الكمبيوتر.[34] للمرة الثانية خلال 20 عامًا ، تبين أن باحثي الذكاء الاصطناعي الذين توقعوا الإنجاز الوشيك للذكاء الاصطناعي العام مخطئون بشكل أساسي. بحلول التسعينيات ، اكتسب باحثو الذكاء الاصطناعي شهرة في تقديم وعود عبثية. أصبحوا مترددين في عمل تنبؤات على الإطلاق [ج] وتجنب أي ذكر للذكاء الاصطناعي "على المستوى البشري" خوفًا من وصفهم بـ "الحالمين الجامحين". [36]

البحث الضيق للذكاء الاصطناعي

في التسعينيات وأوائل القرن الحادي والعشرين ، حقق الذكاء الاصطناعي السائد نجاحًا تجاريًا أكبر بكثير واحترامًا أكاديميًا من خلال التركيز على مشكلات فرعية محددة حيث يمكنهم إنتاج نتائج يمكن التحقق منها وتطبيقات تجارية ، مثل الشبكات العصبية الاصطناعية والتعلم الآلي الإحصائي . [37] تُستخدم أنظمة "الذكاء الاصطناعي التطبيقي" هذه الآن على نطاق واسع في جميع أنحاء صناعة التكنولوجيا ، ويتم تمويل الأبحاث في هذا السياق بشكل كبير جدًا في كل من الأوساط الأكاديمية والصناعية. حاليًا ، يعتبر التطوير في هذا المجال اتجاهًا ناشئًا ، ومن المتوقع أن تحدث مرحلة ناضجة في أكثر من 10 سنوات. [38]

يأمل معظم الباحثين في مجال الذكاء الاصطناعي السائد في إمكانية تطوير ذكاء اصطناعي قوي من خلال الجمع بين البرامج التي تحل العديد من المشكلات الفرعية. كتب هانز مورافيك في عام 1988:

"أنا واثق من أن هذا المسار التصاعدي للذكاء الاصطناعي سيلتقي يومًا ما بالطريق التقليدي من أعلى إلى أسفل بأكثر من نصف الطريق ، وسيكون جاهزًا لتوفير كفاءة العالم الحقيقي والمعرفة المنطقية التي كانت محبطة للغاية في برامج التفكير. سينتج عن الآلات الذكية عندما يتم دفع السنبلة الذهبية المجازية التي توحد المجهودين ". [39]

ومع ذلك ، حتى هذه الفلسفة الأساسية كانت موضع نزاع. على سبيل المثال ، اختتم ستيفان هارناد من جامعة برينستون ورقته البحثية عام 1990 حول فرضية تأريض الرمز بالقول:

"غالبًا ما تم التعبير عن التوقع بأن النهج" من أعلى إلى أسفل "(رمزي) لنمذجة الإدراك ستلبي بطريقة ما مناهج" من أسفل إلى أعلى "(حسية) في مكان ما بينهما. إذا كانت اعتبارات التأريض في هذه الورقة صحيحة ، فإن هذا التوقع يكون معياري بشكل ميؤوس منه ولا يوجد حقًا سوى مسار واحد قابل للتطبيق من المعنى إلى الرموز: من الألف إلى الياء. لن يتم الوصول إلى مستوى رمزي عائم مثل مستوى برنامج الكمبيوتر من خلال هذا المسار (أو العكس) - كما أنه ليس واضحًا لماذا يجب علينا حتى محاولة الوصول إلى هذا المستوى ، لأنه يبدو كما لو أن الوصول إليه سيكون مجرد اقتلاع رموزنا من معانيها الجوهرية (وبالتالي مجرد اختزال أنفسنا إلى المكافئ الوظيفي لجهاز كمبيوتر قابل للبرمجة). " [40]

أبحاث الذكاء الاصطناعي العام الحديثة

تم استخدام مصطلح "الذكاء العام الاصطناعي" في وقت مبكر من عام 1997 ، من قبل مارك جوبرود [41] في مناقشة الآثار المترتبة على عمليات الإنتاج والعمليات العسكرية المؤتمتة بالكامل. أعيد تطبيقها على المدى وشعبية من قبل شين ليج و بين غويرتزل حول 2002. [42] والهدف البحث هو أقدم من ذلك بكثير، على سبيل المثال دوغ Lenat الصورة مراكز الشباب الإصلاحية مشروع (التي بدأت في عام 1984)، و ألن نيويل الصورة حلق المشروع هي تعتبر ضمن نطاق الذكاء الاصطناعي العام. تم وصف نشاط بحث AGI في عام 2006 من قبل Pei Wang و Ben Goertzel [43]باسم "إنتاج المنشورات والنتائج الأولية". تم تنظيم أول مدرسة صيفية في AGI في شيامن ، الصين في عام 2009 [44] من قبل مختبر الدماغ الاصطناعي في جامعة شيامن و OpenCog. تم تقديم الدورة الجامعية الأولى في 2010 [45] و 2011 [46] في جامعة بلوفديف ، بلغاريا من قبل تودور أرناودوف. قدم معهد ماساتشوستس للتكنولوجيا دورة في الذكاء الاصطناعي العام في عام 2018 ، نظمها ليكس فريدمان وشارك فيها عدد من المحاضرين الضيوف. ومع ذلك ، لم يكرس معظم باحثي الذكاء الاصطناعي حتى الآن سوى القليل من الاهتمام للذكاء الاصطناعي العام ، حيث ادعى البعض أن الذكاء معقد للغاية بحيث لا يمكن تكراره بالكامل على المدى القريب. ومع ذلك ، ينشط عدد قليل من علماء الكمبيوتر في أبحاث الذكاء الاصطناعي العام ، ويساهم العديد من هذه المجموعة في سلسلة من مؤتمرات الذكاء الاصطناعي العام. البحث متنوع للغاية وغالبًا ما يكون رائدًا بطبيعته. في مقدمة كتابه ، [47] يقول جورتزل أن تقديرات الوقت اللازم قبل بناء الذكاء الاصطناعي العام المرن تختلف من 10 سنوات إلى أكثر من قرن ، ولكن يبدو أن الإجماع في مجتمع أبحاث الذكاء الاصطناعي العام هو أن الجدول الزمني الذي ناقشه راي كورزويل في فيلم The Singularity is Near [48] (أي بين 2015 و 2045) معقول. [49]

ومع ذلك ، قدم باحثو الذكاء الاصطناعي السائد مجموعة واسعة من الآراء حول ما إذا كان التقدم سيكون بهذه السرعة. وجد التحليل التلوي لعام 2012 لـ 95 رأيًا من هذا القبيل تحيزًا نحو التنبؤ بأن ظهور الذكاء الاصطناعي العام سيحدث في غضون 16-26 عامًا للتنبؤات الحديثة والتاريخية على حد سواء. تبين لاحقًا أن مجموعة البيانات أدرجت بعض الخبراء على أنهم غير خبراء والعكس صحيح. [50]

وتشمل المنظمات التي تعمل صراحة AGI المختبر السويسري لمنظمة العفو الدولية IDSIA ، [51] Nnaisense، [52] بالإنابة ، Maluuba ، [12] و مؤسسة OpenCog ، التكيف AI، يدا ، و Numenta وما يرتبط بها من معهد العلوم العصبية ريدوود . [53] بالإضافة إلى ذلك، منظمات مثل معهد بحوث آلة الاستخبارات [54] و OpenAI [55] وقد تم تأسيسها للتأثير على مسار التنمية في AGI. أخيرًا ، مشاريع مثل مشروع الدماغ البشري [56]تهدف إلى بناء محاكاة وظيفية للدماغ البشري. صنف مسح أجري عام 2017 حول AGI خمسة وأربعين مشروعًا معروفًا من "مشاريع البحث والتطوير النشطة" التي تتضمن بحثًا صريحًا أو ضمنيًا (من خلال الأبحاث المنشورة) ، وأكبر ثلاثة منها هي DeepMind و Human Brain Project و OpenAI . [12]

في عام 2017، [ بحاجة لمصدر ] بين غويرتزل تأسيس منصة AI SingularityNET بهدف تسهيل الديمقراطية، ومراقبة مركزية من AGI عند وصولها. [57]

في عام 2017 ، أجرى الباحثون Feng Liu و Yong Shi و Ying Liu اختبارات ذكاء على الذكاء الاصطناعي الضعيف المتاح للجمهور والذي يمكن الوصول إليه مجانًا مثل Google AI أو Apple's Siri وغيرها. كحد أقصى ، وصلت هذه الذكاء الاصطناعي إلى معدل ذكاء يبلغ حوالي 47 ، وهو ما يعادل تقريبًا طفل يبلغ من العمر ست سنوات في الصف الأول. يصل عمر البالغ إلى حوالي 100 في المتوسط. تم إجراء اختبارات مماثلة في عام 2014 ، حيث وصلت درجة حاصل الذكاء إلى قيمة قصوى قدرها 27. [58] [59]

في عام 2019 ، أعلن مبرمج ألعاب الفيديو ومهندس الطيران جون كارماك عن خطط لبحث الذكاء الاصطناعي العام. [60]

في عام 2020 ، طورت OpenAI GPT-3 ، وهو نموذج لغوي قادر على أداء العديد من المهام المتنوعة دون تدريب محدد. وفقًا لغاري غروسمان في مقال في VentureBeat ، في حين أن هناك إجماعًا على أن GPT-3 ليس مثالًا على الذكاء الاصطناعي العام ، إلا أنه يعتبره البعض متقدمًا جدًا بحيث لا يمكن تصنيفه على أنه نظام ذكاء اصطناعي ضيق. [61]

محاكاة الدماغ

مضاهاة الدماغ بالكامل

من الأساليب الشائعة التي نوقشت لتحقيق عمل ذكي عام محاكاة الدماغ بالكامل . تم بناء نموذج الدماغ على مستوى منخفض وفقا لل مسح و رسم خرائط الدماغ البيولوجي في التفاصيل ونسخ حالته في نظام الكمبيوتر أو جهاز الحسابية آخر. يدير الكمبيوتر نموذج محاكاة مخلصًا جدًا للأصل بحيث يتصرف بشكل أساسي بنفس الطريقة التي يتصرف بها الدماغ الأصلي ، أو لجميع الأغراض العملية ، بشكل لا يمكن تمييزه. [62] يناقش مضاهاة الدماغ كله في علم الأعصاب الحاسوبية و معلوماتية عصبية ، في سياق محاكاة الدماغ لأغراض البحوث الطبية. تمت مناقشته فيأبحاث الذكاء الاصطناعي [49] كنهج للذكاء الاصطناعي القوي. إن تقنيات التصوير العصبي التي يمكن أن تقدم الفهم التفصيلي الضروري تتحسن بسرعة ، ويتنبأ المستقبلي راي كورزويل في كتاب The Singularity Is Near [48] بأن خريطة ذات جودة كافية ستصبح متاحة على نطاق زمني مماثل لقوة الحوسبة المطلوبة.

التقديرات المبكرة

تقديرات كيفية التي تشتد الحاجة إليها قوة المعالجة لمحاكاة الدماغ البشري على مختلف المستويات (من راي كورزويل، و أندرس ساندبرج و نيك بوستروم )، جنبا إلى جنب مع أسرع حاسوب عملاق من TOP500 تعيينها بعد عام. لاحظ المقياس اللوغاريتمي وخط الاتجاه الأسي ، الذي يفترض أن القدرة الحسابية تتضاعف كل 1.1 سنة. يعتقد كورزويل أن تحميل العقل سيكون ممكنًا في المحاكاة العصبية ، في حين أن تقرير ساندبرج ، بوستروم أقل يقينًا بشأن مكان ظهور الوعي . [63]

لمحاكاة الدماغ منخفضة المستوى ، ستكون هناك حاجة إلى جهاز كمبيوتر قوي للغاية. في الدماغ البشري يحتوي على عدد كبير من نقاط الاشتباك العصبي . كل من الـ 10 11 (مائة مليار) خلية عصبية لديها في المتوسط ​​7000 وصلة متشابكة (المشابك) مع الخلايا العصبية الأخرى. تشير التقديرات إلى أن دماغ طفل يبلغ من العمر ثلاث سنوات يحتوي على حوالي 10 15 نقطة تشابك (1 كوادريليون). هذا الرقم يتناقص مع تقدم العمر ، ويستقر عند البلوغ. تختلف التقديرات بالنسبة لشخص بالغ ، وتتراوح من 10 14 إلى 5 × 10 14 نقطة الاشتباك العصبي (100 إلى 500 تريليون). [64] تقدير قوة معالجة الدماغ ، استنادًا إلى نموذج التبديل البسيط لنشاط الخلايا العصبية ، هو حوالي 10 14(100 تريليون) تحديث متشابك في الثانية ( SUPS ). [٦٥] في عام 1997 ، نظر كورزويل في تقديرات مختلفة للأجهزة المطلوبة لتساوي الدماغ البشري وتبنى رقم 10 16 عملية حسابية في الثانية (cps). [د] (للمقارنة ، إذا كان "الحساب" معادلاً لـ " عملية النقطة العائمة " - وهو مقياس يستخدم لتقييم أجهزة الكمبيوتر العملاقة الحالية - فإن 10 16 "حسابًا" سيكون مكافئًا لـ 10 بيتافلوبس ، تم تحقيقه في عام 2011). استخدم هذا الرقم للتنبؤ بأن الأجهزة اللازمة ستكون متاحة في وقت ما بين 2015 و 2025 ، إذا استمر النمو الأسي في قوة الكمبيوتر في وقت كتابة هذا التقرير.

نمذجة الخلايا العصبية بمزيد من التفصيل

و الخلايا العصبية الاصطناعية يفترض النموذج من قبل كورزويل وتستخدم في كثير من الحالي الاصطناعي الشبكة العصبية تطبيقات بسيط مقارنة مع الخلايا العصبية البيولوجية . من المحتمل أن تقوم محاكاة الدماغ بالتقاط السلوك الخلوي المفصل للخلايا العصبية البيولوجية ، والمفهوم حاليًا فقط في أوسع الخطوط العريضة. إن النفقات العامة التي يتم تقديمها من خلال النمذجة الكاملة للتفاصيل البيولوجية والكيميائية والفيزيائية للسلوك العصبي (خاصة على المستوى الجزيئي) تتطلب قوى حسابية عدة مرات أكبر من تقدير كورزويل. بالإضافة إلى أن التقديرات لا تأخذ في الحسبان الخلايا الدبقية، والتي لا تقل عن عدد الخلايا العصبية ، والتي قد تفوق عدد الخلايا العصبية بنسبة تصل إلى 10: 1 ، ومن المعروف الآن أنها تلعب دورًا في العمليات المعرفية. [68]

البحث الحالي

هناك بعض المشاريع البحثية التي تبحث في محاكاة الدماغ باستخدام نماذج عصبية أكثر تعقيدًا ، يتم تنفيذها على بنيات الحوسبة التقليدية. و نظام الذكاء الاصطناعي تنفيذ مشروع المحاكاة الوقت غير حقيقية ل"الدماغ" (مع 10 11 الخلايا العصبية) في عام 2005. واستغرق الأمر 50 يوما على كتلة من 27 المعالجات لمحاكاة 1 ثانية من نموذج. [69] و الدماغ الأزرق مشروع استخدام واحدة من أسرع أبنية العملاق في العالم، IBM الصورة بلو جين منصة، لخلق المحاكاة في الوقت الحقيقي من الفئران واحد عمود القشرة المخية الحديثة تتألف من حوالي 10،000 الخلايا العصبية و10 8 نقاط الاشتباك العصبي في عام 2006.[70] يتمثل الهدف طويل المدى في بناء محاكاة وظيفية مفصلة للعمليات الفسيولوجية في الدماغ البشري: "ليس من المستحيل بناء دماغ بشري ويمكننا القيام بذلك في غضون 10 سنوات ،" هنري ماركرام ، مدير قال مشروع Blue Brain في عام 2009 في مؤتمر TED في أكسفورد. [71] كانت هناك أيضًا ادعاءات مثيرة للجدل بمحاكاة دماغ قطة . تم اقتراح واجهات السيليكون العصبي كإستراتيجية تنفيذ بديلة قد تتوسع بشكل أفضل. [72]

تناول هانز مورافيك الحجج المذكورة أعلاه ("الأدمغة أكثر تعقيدًا" ، "يجب تصميم الخلايا العصبية بمزيد من التفصيل") في بحثه عام 1997 "متى تتطابق أجهزة الكمبيوتر مع الدماغ البشري؟". [67] قام بقياس قدرة البرامج الموجودة على محاكاة وظائف الأنسجة العصبية ، وخاصة شبكية العين. لا تعتمد نتائجه على عدد الخلايا الدبقية ، ولا على أي نوع من الخلايا العصبية التي تؤدي دورها.

تم استكشاف التعقيد الفعلي لنمذجة الخلايا العصبية البيولوجية في مشروع OpenWorm الذي كان يهدف إلى محاكاة كاملة لدودة تحتوي على 302 خلية عصبية فقط في شبكتها العصبية (من بين حوالي 1000 خلية في المجموع). تم توثيق الشبكة العصبية للحيوان جيدًا قبل بدء المشروع. ومع ذلك ، على الرغم من أن المهمة بدت بسيطة في البداية ، إلا أن النماذج القائمة على شبكة عصبية عامة لم تنجح. تركز الجهود حاليًا على المحاكاة الدقيقة للخلايا العصبية البيولوجية (جزئيًا على المستوى الجزيئي) ، ولكن لا يمكن اعتبار النتيجة نجاحًا تامًا حتى الآن. حتى إذا كان عدد المشكلات التي يتعين حلها في نموذج مقياس الدماغ البشري لا يتناسب مع عدد الخلايا العصبية ، فإن مقدار العمل على طول هذا المسار واضح.

انتقادات للنهج القائمة على المحاكاة

يُستمد النقد الأساسي لنهج محاكاة الدماغ من الإدراك المتجسد حيث يتم أخذ التجسيد البشري باعتباره جانبًا أساسيًا من جوانب الذكاء البشري. يعتقد العديد من الباحثين أن التجسيد ضروري لتأسيس المعنى. [73] إذا كان هذا الرأي صحيحًا ، فإن أي نموذج دماغي يعمل بكامل طاقته يجب أن يشمل أكثر من مجرد الخلايا العصبية (أي الجسم الآلي). يقترح Goertzel [49] تجسيدًا افتراضيًا (كما هو الحال في Second Life ) ، لكن لم يُعرف بعد ما إذا كان هذا سيكون كافيًا أم لا.

أجهزة كمبيوتر سطح المكتب التي تستخدم معالجات دقيقة قادرة على أكثر من 10 9 سنتي في الثانية (وحدة كورزويل غير القياسية "حسابات في الثانية" ، انظر أعلاه) متوفرة منذ عام 2005. وفقًا لتقديرات قوة الدماغ التي يستخدمها كورزويل (ومورافيك) ، يجب أن يكون هذا الكمبيوتر قادرة على دعم محاكاة دماغ النحل ، ولكن على الرغم من بعض الاهتمام [74] لا توجد مثل هذه المحاكاة. [ بحاجة لمصدر ] هناك ثلاثة أسباب على الأقل لهذا:

  1. يبدو أن نموذج الخلايا العصبية مفرط في التبسيط (انظر القسم التالي).
  2. لا يوجد فهم كافٍ للعمليات الإدراكية العليا [هـ] لتحديد ما يرتبط به النشاط العصبي للدماغ ، الذي تمت ملاحظته باستخدام تقنيات مثل التصوير بالرنين المغناطيسي الوظيفي .
  3. حتى إذا تقدم فهمنا للإدراك بشكل كافٍ ، فمن المحتمل أن تكون برامج المحاكاة المبكرة غير فعالة للغاية ، وبالتالي ، سوف تحتاج إلى المزيد من الأجهزة بشكل كبير.
  4. قد لا يكون دماغ الكائن الحي ، على الرغم من أهميته ، حدودًا مناسبة للنموذج المعرفي. لمحاكاة دماغ النحل ، قد يكون من الضروري محاكاة الجسم والبيئة. تضفي أطروحة العقل الممتد الطابع الرسمي على المفهوم الفلسفي ، وقد أظهر البحث في رأسيات الأرجل أمثلة واضحة للنظام اللامركزي. [76]

بالإضافة إلى ذلك ، فإن حجم الدماغ البشري ليس مقيدًا جيدًا حاليًا. أحد التقديرات يضع الدماغ البشري عند حوالي 100 مليار خلية عصبية و 100 تريليون نقطة الاشتباك العصبي. [77] [78] تقدير آخر هو 86 مليار خلية عصبية منها 16.3 مليار في القشرة الدماغية و 69 مليار في المخيخ . [79] مشابك الخلايا الدبقية غير محددة الكمية حاليًا ولكن من المعروف أنها عديدة للغاية.

منظور فلسفي

في عام 1980 ، صاغ الفيلسوف جون سيرل مصطلح "الذكاء الاصطناعي القوي" كجزء من حجته في الغرفة الصينية . [80] أراد التمييز بين فرضيتين مختلفتين حول الذكاء الاصطناعي: [f]

  • يمكن لنظام الذكاء الاصطناعي أن يفكر ويكون له عقل . (لكلمة "عقل" معنى محدد للفلاسفة ، كما هو مستخدم في " مشكلة العقل والجسد " أو " فلسفة العقل ".)
  • يمكن لنظام الذكاء الاصطناعي (فقط) أن يتصرف كما يفكر ولديه عقل.

الأول يسمى " فرضية الذكاء الاصطناعي القوية " والثاني هو " فرضية الذكاء الاصطناعي الضعيفة " لأن الأول يعطي البيان الأقوى : يفترض أن شيئًا خاصًا قد حدث للآلة يتجاوز كل قدراتها التي يمكننا اختبارها. أشار سيرل إلى "فرضية الذكاء الاصطناعي القوية" على أنها "ذكاء اصطناعي قوي". هذا الاستخدام شائع أيضًا في أبحاث الذكاء الاصطناعي والكتب المدرسية الأكاديمية. [81]

تكافئ فرضية الذكاء الاصطناعي الضعيفة الفرضية القائلة بأن الذكاء الاصطناعي العام ممكن. ووفقا لل رسل و نورفيج "الباحثين معظم AI اتخاذ ضعيفة فرضية AI أمرا مفروغا منه، ولا يهتمون فرضية AI قوية." [82]

على عكس سيرل ، يستخدم راي كورزويل مصطلح "الذكاء الاصطناعي القوي" لوصف أي نظام ذكاء اصطناعي يعمل كما لو كان لديه عقل ، [48] بغض النظر عما إذا كان الفيلسوف قادرًا على تحديد ما إذا كان لديه عقل بالفعل أم لا. في الخيال العلمي ، يرتبط الذكاء الاصطناعي العام بسمات مثل الوعي ، والعاطفة ، والحصافة ، والوعي الذاتي التي لوحظت في الكائنات الحية. ومع ذلك ، وفقًا لسيرل ، فإن السؤال المفتوح هو ما إذا كان الذكاء العام كافياً للوعي. يجب عدم الخلط بين "الذكاء الاصطناعي القوي" (على النحو المحدد أعلاه من قبل كورزويل) وبين " فرضية الذكاء الاصطناعي القوية " لسيرل"إن فرضية AI القوية هي الادعاء بأن جهاز الكمبيوتر الذي يتصرف كما بذكاء كشخص يجب أن يكون بالضرورة العقل و الوعي . ويشير AGI فقط لكمية المعلومات الاستخباراتية التي يعرض الجهاز، مع أو من دون عقل.

وعي

هناك جوانب أخرى من العقل البشري إلى جانب الاستخبارات التي هي ذات الصلة لمفهوم الذكاء الاصطناعى القوي الذي لعب دورا رئيسيا في الخيال العلمي و أخلاقيات الذكاء الاصطناعي :

هذه السمات لها بعد أخلاقي ، لأن آلة بهذا الشكل من الذكاء الاصطناعي القوي قد يكون لها حقوق مماثلة لحقوق الحيوانات غير البشرية . على هذا النحو ، تم إجراء عمل تمهيدي على مناهج دمج العوامل الأخلاقية الكاملة مع الأطر القانونية والاجتماعية القائمة. ركزت هذه الأساليب على الوضع القانوني وحقوق الذكاء الاصطناعي "القوي". [84]

ومع ذلك ، يرى بيل جوي ، من بين آخرين ، أن آلة بهذه السمات قد تشكل تهديدًا لحياة الإنسان أو كرامته. [85] يبقى أن نوضح ما إذا كانت أي من هذه السمات ضرورية للذكاء الاصطناعي القوي. دور الوعي غير واضح ، ولا يوجد حاليًا اختبار متفق عليه لوجوده. إذا تم بناء آلة بجهاز يحاكي الارتباطات العصبية للوعي ، فهل سيكون لديها وعي ذاتي تلقائيًا؟ من الممكن أيضًا أن بعض هذه الخصائص ، مثل الإحساس ، تنبثق بشكل طبيعي من آلة ذكية تمامًا ، أو أنه من الطبيعي أن ننسبهذه الخصائص للآلات بمجرد أن تبدأ في التصرف بطريقة ذكية بشكل واضح. على سبيل المثال ، قد يكون الفعل الذكي كافيًا للإحساس ، وليس العكس [ وفقًا لمن؟ ] .

بحوث الوعي الاصطناعي

على الرغم من أن دور الوعي في الذكاء الاصطناعي / الذكاء الاصطناعي العام القوي أمر قابل للنقاش ، فإن العديد من باحثي الذكاء الاصطناعي العام [75] يعتبرون البحث الذي يبحث في إمكانيات تطبيق الوعي أمرًا حيويًا. في محاولة مبكرة ، جادل إيغور ألكسندر [86] بأن مبادئ إنشاء آلة واعية موجودة بالفعل ولكن الأمر سيستغرق أربعين عامًا لتدريب مثل هذه الآلة على فهم اللغة .

التفسيرات المحتملة للتقدم البطيء لأبحاث الذكاء الاصطناعي

منذ إطلاق أبحاث الذكاء الاصطناعي في عام 1956 ، تباطأ نمو هذا المجال بمرور الوقت وأوقف أهداف إنشاء آلات ماهرة في العمل الذكي على المستوى البشري. [87] أحد التفسيرات المحتملة لهذا التأخير هو أن أجهزة الكمبيوتر تفتقر إلى النطاق الكافي للذاكرة أو قوة المعالجة. [87] بالإضافة إلى ذلك ، فإن مستوى التعقيد المرتبط بعملية أبحاث الذكاء الاصطناعي قد يحد أيضًا من تقدم أبحاث الذكاء الاصطناعي. [87]

بينما يعتقد معظم باحثي الذكاء الاصطناعي أنه يمكن تحقيق ذكاء اصطناعي قوي في المستقبل ، هناك بعض الأفراد مثل Hubert Dreyfus و Roger Penrose الذين ينكرون إمكانية تحقيق ذكاء اصطناعي قوي. [87] كان جون مكارثي واحدًا من العديد من علماء الكمبيوتر الذين يعتقدون أن الذكاء الاصطناعي على مستوى الإنسان سيتم إنجازه ، ولكن لا يمكن التنبؤ بموعد دقيق. [88]

القيود المفاهيمية هي سبب آخر محتمل للبطء في أبحاث الذكاء الاصطناعي. [87] قد يحتاج باحثو الذكاء الاصطناعي إلى تعديل الإطار المفاهيمي لتخصصهم من أجل توفير قاعدة أقوى ومساهمة في السعي لتحقيق ذكاء اصطناعي قوي. كما كتب William Clocksin في عام 2003: "يبدأ الإطار من ملاحظة Weizenbaum بأن الذكاء يظهر فقط بالنسبة إلى سياقات اجتماعية وثقافية محددة". [87]

علاوة على ذلك ، تمكن باحثو الذكاء الاصطناعي من إنشاء أجهزة كمبيوتر يمكنها أداء وظائف معقدة على الأشخاص القيام بها ، مثل الرياضيات ، لكنهم على العكس من ذلك كافحوا لتطوير جهاز كمبيوتر قادر على تنفيذ المهام التي يسهل على البشر القيام بها ، مثل المشي ( مفارقة مورافيك ). [87] وصف ديفيد جيليرنتر مشكلة مفادها أن بعض الناس يفترضون أن التفكير والاستدلال متكافئان. [89] ومع ذلك ، فإن فكرة ما إذا كانت الأفكار ومنشئ هذه الأفكار معزولة بشكل فردي قد أثارت اهتمام الباحثين في مجال الذكاء الاصطناعي. [89]

أدت المشكلات التي تمت مواجهتها في أبحاث الذكاء الاصطناعي على مدار العقود الماضية إلى إعاقة تقدم الذكاء الاصطناعي. ساعدت التوقعات الفاشلة التي وعد بها باحثو الذكاء الاصطناعي والافتقار إلى الفهم الكامل للسلوكيات البشرية في تقليص الفكرة الأساسية للذكاء الاصطناعي على المستوى البشري. [49] على الرغم من أن التقدم المحرز في أبحاث الذكاء الاصطناعي قد أدى إلى التحسن وخيبة الأمل ، فقد أثبت معظم الباحثين التفاؤل حول إمكانية تحقيق هدف الذكاء الاصطناعي في القرن الحادي والعشرين. [49]

تم اقتراح أسباب أخرى محتملة للبحث المطول في تقدم الذكاء الاصطناعي القوي. إن تعقيد المشكلات العلمية والحاجة إلى فهم كامل للدماغ البشري من خلال علم النفس وعلم وظائف الأعضاء العصبية قد حد من العديد من الباحثين في محاكاة وظيفة الدماغ البشري في أجهزة الكمبيوتر. [90] يميل العديد من الباحثين إلى التقليل من شأن أي شك يتعلق بالتنبؤات المستقبلية للذكاء الاصطناعي ، ولكن دون أخذ هذه القضايا على محمل الجد ، يمكن للناس التغاضي عن حلول الأسئلة الإشكالية. [49]

يقول كلوكسين إن القيد المفاهيمي الذي قد يعيق تقدم أبحاث الذكاء الاصطناعي هو أن الناس ربما يستخدمون تقنيات خاطئة لبرامج الكمبيوتر وتنفيذ المعدات. [87] عندما بدأ باحثو الذكاء الاصطناعي لأول مرة في السعي لتحقيق هدف الذكاء الاصطناعي ، كان المنطق البشري أحد الاهتمامات الرئيسية. [91] يأمل الباحثون في إنشاء نماذج حسابية للمعرفة البشرية من خلال التفكير ومعرفة كيفية تصميم جهاز كمبيوتر بمهمة معرفية محددة. [91]

تزود ممارسة التجريد ، التي يميل الناس إلى إعادة تعريفها عند العمل مع سياق معين في البحث ، الباحثين بالتركيز على بعض المفاهيم فقط. [91] الاستخدام الأكثر إنتاجية للتجريد في أبحاث الذكاء الاصطناعي يأتي من التخطيط وحل المشكلات. [91] على الرغم من أن الهدف هو زيادة سرعة الحساب ، فإن دور التجريد قد طرح أسئلة حول مشاركة عوامل التجريد. [92]

يتعلق أحد الأسباب المحتملة للبطء في الذكاء الاصطناعي باعتراف العديد من باحثي الذكاء الاصطناعي بأن الاستدلال هو قسم يحتوي على خرق كبير بين أداء الكمبيوتر والأداء البشري. [90] قد تكون الوظائف المحددة التي تمت برمجتها على الكمبيوتر قادرة على حساب العديد من المتطلبات التي تسمح لها بمطابقة الذكاء البشري. لا يُضمن بالضرورة أن تكون هذه التفسيرات هي الأسباب الأساسية للتأخير في تحقيق ذكاء اصطناعي قوي ، ولكن تم الاتفاق عليها على نطاق واسع من قبل العديد من الباحثين.

كان هناك العديد من باحثي الذكاء الاصطناعي الذين يناقشون فكرة ما إذا كان ينبغي إنشاء الآلات بالعواطف . لا توجد مشاعر في النماذج النموذجية للذكاء الاصطناعي ويقول بعض الباحثين إن برمجة المشاعر في آلات تتيح لهم امتلاك عقل خاص بهم. [87] العاطفة تلخص تجارب البشر لأنها تسمح لهم بتذكر تلك التجارب. [89] كتب David Gelernter ، "لن يكون الكمبيوتر مبدعًا ما لم يتمكن من محاكاة جميع الفروق الدقيقة في المشاعر البشرية." [89] طرح هذا القلق بشأن العاطفة مشاكل لباحثي الذكاء الاصطناعي وهو يرتبط بمفهوم الذكاء الاصطناعي القوي مع تقدم أبحاثه في المستقبل. [93]

الخلافات والمخاطر

الجدوى

اعتبارًا من أغسطس 2020 ، لا يزال AGI تخمينيًا [8] [94] حيث لم يتم إثبات مثل هذا النظام حتى الآن. تتباين الآراء سواء على سواء و عندما المخابرات العامة الاصطناعي سيصل، على الإطلاق. من ناحية أخرى ، تكهن رائد الذكاء الاصطناعي هربرت أ. سيمون في عام 1965: "ستكون الآلات قادرة ، في غضون عشرين عامًا ، على القيام بأي عمل يمكن للرجل القيام به". ومع ذلك ، فشل هذا التوقع في أن يتحقق. يعتقد بول ألين ، الشريك المؤسس لشركة Microsoft ، أن مثل هذا الذكاء غير مرجح في القرن الحادي والعشرين لأنه سيتطلب "اختراقات غير متوقعة وغير متوقعة في الأساس" و "فهمًا علميًا عميقًا للإدراك". [95] الكتابة في الجارديانادعى عالم الروبوتات آلان وينفيلد أن الفجوة بين الحوسبة الحديثة والذكاء الاصطناعي على مستوى الإنسان واسعة مثل الفجوة بين رحلة الفضاء الحالية ورحلات الفضاء العملية الأسرع من الضوء. [96]

تلاشت آراء خبراء الذكاء الاصطناعي بشأن جدوى استخدام شمع الذكاء الاصطناعي العام ، وربما شهدت انتعاشًا في العقد الأول من القرن الحادي والعشرين. أشارت أربعة استطلاعات للرأي أجريت في عامي 2012 و 2013 إلى أن متوسط ​​التخمين بين الخبراء عن الوقت الذي سيكونون فيه واثقين بنسبة 50٪ من وصول الذكاء الاصطناعي العام كان من 2040 إلى 2050 ، اعتمادًا على الاستطلاع ، بمتوسط ​​2081. من الخبراء ، أجاب 16.5٪ بـ " أبدًا "عند طرح نفس السؤال ولكن بثقة 90٪ بدلاً من ذلك. [97] [98] يمكن العثور على مزيد من اعتبارات تقدم الذكاء الاصطناعي العام الحالية أسفل اختبارات تأكيد الذكاء الاصطناعي العام على المستوى البشري .

تهديد محتمل للوجود البشري

فرضية أن الذكاء الاصطناعي يشكل خطرًا وجوديًا ، وأن هذا الخطر يحتاج إلى اهتمام أكبر بكثير مما يحصل عليه حاليًا ، وقد أيدته العديد من الشخصيات العامة ؛ ربما الأكثر شهرة هي ايلون موسك ، بيل غيتس ، و ستيفن هوكينج . يعد ستيوارت ج . راسل أبرز باحث في مجال الذكاء الاصطناعي يؤيد الأطروحة . يعبر مؤيدو الأطروحة أحيانًا عن حيرتهم تجاه المتشككين: يقول جيتس إنه لا "يفهم سبب عدم قلق بعض الناس" ، [99] وانتقد هوكينغ اللامبالاة الواسعة الانتشار في افتتاحية عام 2014:

لذا ، في مواجهة مستقبل محتمل بمزايا ومخاطر لا تحصى ، فإن الخبراء يبذلون بالتأكيد كل ما في وسعهم لضمان أفضل النتائج ، أليس كذلك؟ خاطئ. إذا أرسلت لنا حضارة فضائيّة متفوقة رسالة تقول ، "سنصل في غضون بضعة عقود" ، فهل نرد فقط ، "حسنًا ، اتصل بنا عندما تصل إلى هنا - سنترك الأضواء مضاءة؟" ربما لا - ولكن هذا ما يحدث تقريبًا مع الذكاء الاصطناعي. [100]

يعتقد العديد من العلماء المهتمين بالمخاطر الوجودية أن أفضل طريقة للمضي قدمًا هي إجراء بحث (ربما يكون ضخمًا) لحل مشكلة " التحكم " الصعبة للإجابة على السؤال: ما هي أنواع الضمانات أو الخوارزميات أو البنى التي يمكن للمبرمجين تنفيذها لتعظيم احتمالية أن يواصل الذكاء الاصطناعي الذي يتحسن بشكل متكرر التصرف بطريقة ودية ، وليست مدمرة ، بعد وصوله إلى الذكاء الخارق؟ [84] [101]

الأطروحة القائلة بأن الذكاء الاصطناعي يمكن أن يشكل خطرًا وجوديًا لها أيضًا العديد من المنتقدين الأقوياء. يتهم المشككون أحيانًا أن الأطروحة دينية خفية ، مع اعتقاد غير منطقي بإمكانية الذكاء الخارق ليحل محل الاعتقاد غير العقلاني بإله كلي القدرة ؛ في أقصى الحدود ، يجادل جارون لانيير في أن المفهوم الكامل بأن الآلات الحالية ذكية بأي شكل من الأشكال هو "وهم" و "خدعة هائلة" من قبل الأثرياء. [102]

يرى الكثير من الانتقادات الحالية أن الذكاء الاصطناعي العام غير محتمل على المدى القصير. يجادل عالم الكمبيوتر جوردون بيل بأن الجنس البشري سوف يدمر نفسه بالفعل قبل أن يصل إلى التفرد التكنولوجي . صرح جوردون مور ، المؤيد الأصلي لقانون مور ، "أنا متشكك. لا أعتقد أن [التفرد التكنولوجي] من المحتمل أن يحدث ، على الأقل لفترة طويلة. ولا أعرف لماذا أشعر بذلك طريق." [103] صرح نائب رئيس شركة بايدو السابق وكبير العلماء أندرو نج بأن الخطر الوجودي للذكاء الاصطناعي "يشبه القلق بشأن الزيادة السكانية على سطح المريخ عندما لم تطأ أقدامنا الكوكب بعد." [104]

انظر أيضا

ملاحظات

  1. ^ كتبمؤسس منظمة العفو الدولية جون مكارثي : "لا يمكننا حتى الآن وصف أنواع الإجراءات الحسابية التي نريد أن نسميها ذكية" بشكل عام. [13] (لمناقشة بعض تعريفات الذكاء التي يستخدمهاباحثو الذكاء الاصطناعي ، انظر فلسفة الذكاء الاصطناعي .)
  2. ^ إن تقرير ايتهيل انتقد على وجه التحديد "أهداف متكلفا" منظمة العفو الدولية وأدى تفكيك أبحاث الذكاء الاصطناعى في انكلترا. [29] في الولايات المتحدة ،أصبحت داربا مصممة على تمويل "البحث المباشر الموجه نحو المهمة فقط ، بدلاً من البحث الأساسي غير المباشر". [30] [31]
  3. ^ كماكتبمؤسس منظمة العفو الدولية جون مكارثي "سيكون من دواعي ارتياح كبير لبقية العاملين في الذكاء الاصطناعي إذا عبّر مخترعو الشكليات العامة الجديدة عن آمالهم بشكل أكثر حذرًا مما كان عليه الحال في بعض الأحيان". [35]
  4. ^ في "Mind Children" [66] تم استخدام10 15 cps. في الآونة الأخيرة ، في عام 1997 ، [67] جادل مورافيك بـ 10 8 MIPS والتي ستقابل تقريبًا 10 14 cps. يتحدث Moravec من حيث MIPS ، وليس "cps" ، وهو مصطلح غير قياسي قدمه كورزويل.
  5. ^ في كتاب Goertzels AGI ، يقترح Yudkowsky 5 مستويات من التنظيم يجب فهمها - الكود / البيانات ، والطريقة الحسية ، والمفهوم والفئة ، والفكر ، والتداول (الوعي) - من أجل استخدام الأجهزة المتاحة. [75]
  6. ^ كما هو محدد في كتاب قياسي للذكاء الاصطناعي: "إن التأكيد على أن الآلات يمكن أن تتصرف بذكاء (أو ربما تتصرف كما لو كانت ذكية بشكل أفضل) يسمى بفرضية" الذكاء الاصطناعي الضعيف "من قبل الفلاسفة ، والتأكيد على أن الآلات التي تفعل ذلك يفكرون في الواقع (على عكس محاكاة التفكير) تسمى فرضية "الذكاء الاصطناعي القوي". [65]
  7. ^ لاحظ أنه منالصعب تعريف الوعي . التعريف الشائع ، بسبب توماس ناجل ، هو أنه "يشعر وكأنه" شيء يجب أن تكون واعياً. إذا لم نكن واعين ، فلن نشعر بأي شيء. يستخدم ناجل مثال الخفاش: يمكننا أن نسأل بشكل منطقي "ما هو شعورك عندما تكون خفاشًا؟" ومع ذلك ، فمن غير المرجح أن نسأل "ما هو شعورك عندما تكون محمصة خبز؟" يستنتج ناجل أن الخفاش يبدو واعيًا (أي لديه وعي) لكن المحمصة ليست كذلك. [83]

المراجع

  1. ^ هودسون ، هال (1 مارس 2019). "ديب مايند وجوجل: معركة السيطرة على الذكاء الاصطناعي" . 1843 . مؤرشفة من الأصلي في 7 يوليو 2020 . تم الاسترجاع 7 يوليو 2020 . AGI تعني الذكاء الاصطناعي العام ، وهو برنامج كمبيوتر افتراضي ...
  2. ^ كورزويل 2005 ، ص. 260.
  3. ^ أ ب كورزويل ، راي (5 أغسطس 2005 أ) ، "Long Live AI" ، فوربس: يصف كورزويل الذكاء الاصطناعي القوي بأنه "ذكاء آلي مع مجموعة كاملة من الذكاء البشري".
  4. ^ مايك تريدير (10 أغسطس 2005) ، "الذكاء البشري المتقدم" ، تقنية النانو المسؤولة ، من الأرشيف الأصلي في 16 أكتوبر 2019
  5. ^ "عصر الذكاء الاصطناعي: جورج جون في TEDxLondonBusinessSchool 2013" . مؤرشفة من الأصلي في 26 فبراير 2014 . تم الاسترجاع 22 فبراير 2014 .
  6. ^ Newell & Simon 1976 ، هذا هو المصطلح الذي يستخدمونه لذكاء "المستوى البشري" فيفرضية نظام الرمز المادي .
  7. ^ Searle 1980 ، انظر أدناه لمعرفة أصل مصطلح "الذكاء الاصطناعي القوي" ، وانظر التعريف الأكاديمي لـ " الذكاء الاصطناعي القوي " في مقالة الغرفة الصينية .
  8. ^ أ ب باوتشر ، فيليب (مارس 2019). "ملاحظات ختامية". كيف يعمل الذكاء الاصطناعي (PDF) (أبلغ عن). خدمة الأبحاث البرلمانية الأوروبية. أرشفة (PDF) من الأصل في 3 مارس 2020 . تم الاسترجاع 3 مارس 2020 . الذكاء الاصطناعي اليوم قوي ومفيد ، لكنه لا يزال بعيدًا عن التكهنات بين الذكاء الاصطناعي العام أو الذكاء الاصطناعي العام.
  9. ^ جريس ، كاتيا ؛ سالفاتير ، جون ؛ دافو ، ألان. تشانغ ، باوباو ؛ إيفانز ، أوين (31 يوليو 2018). "وجهة نظر: متى سيتجاوز الذكاء الاصطناعي الأداء البشري؟ دليل من خبراء الذكاء الاصطناعي" . مجلة أبحاث الذكاء الاصطناعي . 62 : 729-754. دوى : 10.1613 / jair.1.11222 . ISSN 1076-9757 . 
  10. ^ "الجامعة المفتوحة على الذكاء الاصطناعي القوي والضعيف" . مؤرشفة من الأصلي في 25 سبتمبر 2009 . تم الاسترجاع 8 أكتوبر 2007 .
  11. ^ "الفلسفة ستكون المفتاح الذي يفتح الذكاء الاصطناعي | علم الأعصاب | الجارديان" . مؤرشفة من الأصلي في 6 فبراير 2021.
  12. ^ a b c Baum ، Seth (12 نوفمبر 2017) ، "A Survey of Artificial General Intelligence Projects for Ethics، Risk، and Policy"، SSRN ، SSRN 3070741 ، Global Catastrophic Risk Work Paper 17-1 
  13. ^ مكارثي ، جون (2007 أ). "أسئلة أساسية" . جامعة ستانفورد . مؤرشفة من الأصلي في 26 أكتوبر 2007 . تم الاسترجاع 6 ديسمبر 2007 .
  14. ^ تستند قائمة السمات الذكية هذه إلى الموضوعات التي تغطيها كتب الذكاء الاصطناعي الرئيسية ، بما في ذلك: Russell & Norvig 2003 و Luger & Stubblefield 2004 و Poole و Mackworth & Goebel 1998 و Nilsson 1998 .
  15. ^ Pfeifer ، R. and Bongard JC ، كيف يشكل الجسم الطريقة التي نفكر بها: نظرة جديدة للذكاء (The MIT Press ، 2007). ردمك 0-262-16239-3 
  16. ^ وايت ، RW (1959). "إعادة النظر في الدافع: مفهوم الكفاءة". مراجعة نفسية . 66 (5): 297-333. دوى : 10.1037 / ساعة 0040934 . بميد 13844397 . 
  17. ^ جونسون 1987
  18. ^ دي تشارمز ، ر. (1968). السببية الشخصية. نيويورك: مطبعة أكاديمية.
  19. ^ مولهاوزر ، لوك (11 أغسطس 2013). "ما هو الذكاء الاصطناعي العام؟" . معهد أبحاث ذكاء الآلة. مؤرشفة من الأصلي في 25 أبريل 2014 . تم الاسترجاع 1 مايو 2014 .
  20. ^ "ما هو الذكاء العام الاصطناعي (AGI)؟ | 4 اختبارات لضمان الذكاء الاصطناعي العام" . مدونة Talky . 13 يوليو 2019 مؤرشفة من الأصلي في 17 يوليو 2019 . تم الاسترجاع 17 يوليو 2019 .
  21. ^ شابيرو ، ستيوارت سي (1992). "الذكاء الاصطناعي" (PDF) . في ستيوارت سي شابيرو. موسوعة الذكاء الاصطناعي (الطبعة الثانية). نيويورك: جون وايلي. ص 54 - 57. أرشفة (PDF) من الأصل في 1 فبراير 2016. (القسم 4 عن "مهام الذكاء الاصطناعي الكاملة".)
  22. ^ يامبولسكي ، رومان ف. (2012). شين شي يانغ ، أد. "اختبار تورينج كميزة محددة لاكتمال الذكاء الاصطناعي" (PDF) . الذكاء الاصطناعي ، والحساب التطوري و Metaheuristics (AIECM) : 3-17. أرشفة (PDF) من الأصل في 22 مايو 2013.
  23. ^ لويس فون آن ومانويل بلوم ونيكولاس هوبر وجون لانجفورد. CAPTCHA: استخدام مشاكل الذكاء الاصطناعي الصعبة للأمان أرشفة 4 مارس 2016 في آلة Wayback ... في وقائع Eurocrypt ، المجلد. 2656 (2003) ، ص 294 - 311.
  24. ^ بيرجمير ، ريتشارد (7 يناير 2006). "إخفاء اللغة الطبيعية و" أساسيات الأمان "الكاملة للذكاء الاصطناعي. CiteSeer . سيتسيركس 10.1.1.105.129 . 
  25. ^ كريفير 1993 ، ص 48-50
  26. ^ سيمون 1965 ، ص. 96 اقتبس في Crevier 1993 ، ص. 109
  27. ^ "عالم في المجموعة: مقابلة مع مارفن مينسكي" . مؤرشفة من الأصلي في 16 يوليو 2012 . تم الاسترجاع 5 أبريل 2008 .
  28. ^ مارفن مينسكي إلى داراش (1970) ، مقتبس في Crevier (1993 ، ص .109).
  29. ^ لايتيل 1973 ؛ هاو 1994
  30. ^ a b NRC 1999 ، "التحول إلى الأبحاث التطبيقية يزيد الاستثمار".
  31. ^ كريفير 1993 ، ص 115 - 117 ؛ راسل ونورفيج 2003 ، ص 21 - 22.
  32. ^ كريفير 1993 ، ص. 211 ، راسل ونورفيج 2003 ، ص. 24 وانظر أيضًا Feigenbaum & McCorduck 1983
  33. ^ كريفير 1993 ، ص 161 - 162 ، 197 - 203 ، 240 ؛ راسل ونورفيج 2003 ، ص. 25.
  34. ^ كريفير 1993 ، ص 209 - 212
  35. ^ مكارثي ، جون (2000). "الرد على Lighthill" . جامعة ستانفورد. مؤرشفة من الأصلي في 30 سبتمبر 2008 . تم الاسترجاع 29 سبتمبر 2007 .
  36. ^ ماركوف ، جون (14 أكتوبر 2005). "خلف الذكاء الاصطناعي ، سرب من أناس حقيقيين مشرقين" . نيويورك تايمز . في أدنى مستوياته ، تجنب بعض علماء الكمبيوتر ومهندسي البرمجيات مصطلح الذكاء الاصطناعي خوفًا من أن يُنظر إليهم على أنهم حالمون بعيون متوحشة.
  37. ^ راسل ونورفيج 2003 ، ص.25 - 26
  38. ^ "الاتجاهات في دورة الضجيج التكنولوجي الناشئة" . تقارير جارتنر. مؤرشفة من الأصلي في 22 مايو 2019 . تم الاسترجاع 7 مايو 2019 .
  39. ^ مورافيك 1988 ، ص. 20
  40. ^ هارناد ، س (1990). "مشكلة تأريض الرمز". فيزيكا د . 42 (1-3): 335-346. arXiv : CS / 9906002 . بيب كود : 1990PhyD ... 42..335H . دوى : 10.1016 / 0167-2789 (90) 90087-6 .
  41. ^ جوبرود 1997
  42. ^ "من صاغ مصطلح" AGI "؟» goertzel.org " . مؤرشفة من الأصلي في 28 ديسمبر 2018 . تم الاسترجاع 28 ديسمبر 2018 .، عبر Life 3.0 : تم تعميم مصطلح "AGI" بواسطة ... Shane Legg و Mark Gubrud و Ben Goertzel '
  43. ^ وانج وجورتزل 2007 . راجع أيضًا Wang (2006) [ بحاجة لمصدر كامل ] مع ملخص حديث والعديد من الروابط.
  44. ^ "المدرسة الصيفية الدولية الأولى في الذكاء العام الاصطناعي ، المدرسة الصيفية الرئيسية: 22 يونيو - 3 يوليو 2009 ، OpenCog Lab: 6-9 يوليو ، 2009" . مؤرشفة من الأصلي في 28 سبتمبر 2020 . تم الاسترجاع 11 مايو 2020 .
  45. ^ "Избираеми дисциплини 2009/2010 - пролетен триместър" [الدورات الاختيارية 2009/2010 - فصل الربيع]. Факултет по математика и информатика [كلية الرياضيات والمعلوماتية] (في البلغارية). مؤرشفة من الأصلي في 26 يوليو 2020 . تم الاسترجاع 11 مايو 2020 .
  46. ^ "Избираеми дисциплини 2010/2011 - зимен триместър" [الدورات الاختيارية 2010/2011 - الفصل الشتوي]. Факултет по математика и информатика [كلية الرياضيات والمعلوماتية] (في البلغارية). مؤرشفة من الأصلي في 26 يوليو 2020 . تم الاسترجاع 11 مايو 2020 .
  47. ^ جورتزل وبيناشين 2006 .
  48. ^ أ ب ج ( كورزويل 2005 ، ص 260) أو انظر الذكاء البشري المتقدم أرشفة 30 يونيو 2011 في آلة Wayback حيث يعرف الذكاء الاصطناعي القوي بأنه "ذكاء آلي مع مجموعة كاملة من الذكاء البشري."
  49. ^ a b c d e f Goertzel 2007 .
  50. ^ كاتيا جريس (2016). "خطأ في Armstrong and Sotala 2012" . تأثيرات الذكاء الاصطناعي (مدونة). مؤرشفة من الأصلي في 4 ديسمبر 2020 . تم الاسترجاع 24 أغسطس 2020 .
  51. ^ ماركوس هوتر (أبريل 2004). "الآلات الذكية التي تتعلم بدون مساعدة" (PDF) . IMPRESSUM . تيسينو Ricerca. مؤرشف من الأصل (PDF) في 17 أكتوبر 2016 . تم الاسترجاع 24 أغسطس 2020 .
  52. ^ ماركوف ، جون (27 نوفمبر 2016). وقال "عندما ينضج AI، وله أن يدعو يورغن شمدهوبر 'أبي ' " . نيويورك تايمز . مؤرشفة من الأصلي في 26 ديسمبر 2017 . تم الاسترجاع 26 ديسمبر 2017 .
  53. ^ جيمس بارات (2013). "الفصل 11: الإقلاع الصعب". اختراعنا النهائي: الذكاء الاصطناعي ونهاية العصر البشري (الطبعة الأولى). نيويورك: مطبعة سانت مارتن. رقم ISBN 9780312622374.
  54. ^ "حول معهد أبحاث ذكاء الآلة" . معهد أبحاث ذكاء الآلة . مؤرشفة من الأصلي في 21 يناير 2018 . تم الاسترجاع 26 ديسمبر 2017 .
  55. ^ "حول OpenAI" . أوبن إيه آي . مؤرشفة من الأصلي في 22 ديسمبر 2017 . تم الاسترجاع 26 ديسمبر 2017 .
  56. ^ ثيل ، ستيفان. "مشكلة في العقل" . Scientific American . ص 36-42. بيب كود : 2015SciAm.313d..36T . دوى : 10.1038 / scientificamerican1015-36 . مؤرشفة من الأصلي في 9 نوفمبر 2017 . تم الاسترجاع 26 ديسمبر 2017 .
  57. ^ والش ، كاثلين (14 يوليو 2020). "هل الذكاء الاصطناعي العام (AGI) في الأفق؟ مقابلة مع الدكتور بن جورتزل ، الرئيس التنفيذي والمؤسس ، SingularityNET Foundation" . فوربس . مؤرشفة من الأصلي في 6 نوفمبر 2020 . تم الاسترجاع 16 أكتوبر 2020 .الدكتور جورتزل هو مؤسس SingularityNET ، وهي منصة لا مركزية للذكاء الاصطناعي تتيح للعديد من وكلاء الذكاء الاصطناعي التعاون لحل المشكلات بطريقة تشاركية دون أي وحدة تحكم مركزية. ... أنشأ الدكتور جورتزل SingularityNET لسبب واحد بسيط: "أعتزم إنشاء AGI وعندما أطرح AGI هذا ، أريد أن يتم طرحه بطريقة لامركزية وخاضعة للرقابة الديمقراطية ، وليس بطريقة تسمح بذلك ليتم التحكم فيها من قبل أي شخص واحد أو شركة أو كيان حكومي ".
  58. ^ ليو ، فنغ. شي ، يونغ ليو ، ينغ (2017). "حاصل الذكاء ودرجة الذكاء للذكاء الاصطناعي". حوليات علوم البيانات . 4 (2): 179-191. arXiv : 1709.10242 . بيب كود : 2017arXiv170910242L . دوى : 10.1007 / s40745-017-0109-0 . S2CID 37900130 . 
  59. ^ برين ، يورن (5 أكتوبر 2017). "Google-KI doppelt so schlau wie Siri" [Google AI ذكي مرتين مثل Siri - لكن الطفل البالغ من العمر ست سنوات يتفوق على كليهما] (باللغة الألمانية). مؤرشفة من الأصلي في 3 يناير 2019 . تم الاسترجاع 2 يناير 2019 .
  60. ^ لولر ، ريتشارد (13 نوفمبر 2019). "جون كارماك يأخذ خطوة إلى الوراء في Oculus للعمل على الذكاء الاصطناعي الشبيه بالإنسان" . إنجادجيت . مؤرشفة من الأصلي في 26 يوليو 2020 . تم الاسترجاع 4 أبريل 2020 .
  61. ^ غروسمان ، غاري (3 سبتمبر 2020). "نحن ندخل منطقة شفق الذكاء الاصطناعي بين الذكاء الاصطناعي الضيق والعام" . VentureBeat . مؤرشفة من الأصلي في 4 سبتمبر 2020 . تم الاسترجاع 5 سبتمبر 2020 . بالتأكيد ، أيضًا ، هناك من يزعمون أننا نشهد بالفعل مثالًا مبكرًا لنظام AGI في الشبكة العصبية لمعالجة اللغة الطبيعية (NLP) التي تم الإعلان عنها مؤخرًا GPT-3. ... إذن هل GPT-3 هو المثال الأول لنظام الذكاء الاصطناعي العام؟ هذا أمر قابل للنقاش ، لكن الإجماع على أنه ليس ذكاءً عالياً. ... إذا لم يكن هناك شيء آخر ، يخبرنا GPT-3 أن هناك أرضية مشتركة بين الذكاء الاصطناعي الضيق والعام.
  62. ^ ساندبرج وبوستروم 2008 . "تتمثل الفكرة الأساسية في أخذ دماغ معين ، ومسح هيكله بالتفصيل ، وإنشاء نموذج برمجي له يكون مخلصًا جدًا للأصل بحيث أنه ، عند تشغيله على أجهزة مناسبة ، سيتصرف بشكل أساسي بنفس الطريقة التي يتصرف بها الأصل مخ."
  63. ^ ساندبرج وبوستروم 2008 .
  64. ^ دراخمان 2005 .
  65. ^ أ ب راسل ونورفيج 2003 .
  66. ^ مورافيك 1988 ، ص. 61.
  67. ^ أ ب مورافيك 1998 .
  68. ^ سواميناثان ، نيخيل (يناير-فبراير 2011). "الخلايا الدبقية - خلايا الدماغ الأخرى" . اكتشف . مؤرشفة من الأصلي في 8 فبراير 2014 . تم الاسترجاع 24 يناير 2014 .
  69. ^ إيزيكيفيتش ، يوجين م. إيدلمان ، جيرالد م. (4 مارس 2008). "نموذج واسع النطاق للأنظمة المهادية القشرية للثدييات" (PDF) . PNAS . 105 (9): 3593–3598. بيب كود : 2008PNAS..105.3593I . دوى : 10.1073 / pnas.0712231105 . PMC 2265160 . بميد 18292226 . مؤرشفة من الأصلي (PDF) في 12 يونيو 2009 . تم الاسترجاع 23 يونيو 2015 .   
  70. ^ "معالم المشروع" . الدماغ الأزرق . تم الاسترجاع 11 أغسطس 2008 .
  71. ^ "دماغ اصطناعي على بعد 10 سنوات" 2009 أخبار بي بي سي " . 22 يوليو 2009 مؤرشفة من الأصلي في 26 يوليو 2017 . تم الاسترجاع 25 يوليو 2009 .
  72. ^ أخبار جامعة كالجاري أرشفة 18 أغسطس 2009 في آلة Wayback. ، أخبار NBC أرشفة 4 يوليو 2017 في آلة Wayback.
  73. ^ دي فيجا ، جلينبيرج وجرايسر 2008 . مجموعة واسعة من وجهات النظر في البحث الحالي ، وكلها تتطلب التأريض إلى حد ما
  74. ^ "[روابط لدراسات دماغ النحل]" . عسل النحل . مؤرشفة من الأصلي في 25 يوليو 2008 . تم الاسترجاع 30 مارس 2010 .CS1 maint: unfit URL (link)
  75. ^ أ ب يودكوفسكي 2006 .
  76. ^ Yekutieli ، Y ؛ ساجيف زوهار ، ر ؛ أهارونوف ، ر. إنجل ، واي ؛ هوشنر ، ب ؛ فلاش ، تي (أغسطس 2005). "النموذج الديناميكي لذراع الأخطبوط. I. الميكانيكا الحيوية للأخطبوط تصل إلى الحركة". J. نيوروفيسيول . 94 (2): 1443–158. دوى : 10.1152 / jn.00684.2004 . بميد 15829594 . 
  77. ^ وليامز وهيروب 1988
  78. ^ "الجهاز العصبي ، الإنسان". Encyclopædia Britannica . 9 يناير 2007
  79. ^ أزيفيدو وآخرون. 2009 .
  80. ^ سيرل 1980
  81. ^ على سبيل المثال:
  82. ^ راسل ونورفيج 2003 ، ص. 947.
  83. ^ ناجل 1974 .
  84. ^ أ ب سوتالا ، كاج ؛ Yampolskiy ، Roman V. (19 كانون الأول 2014). "الردود على مخاطر AGI الكارثية: مسح" . فيزيكا سكريبتا . 90 (1): 018001. دوى : 10.1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949 . 
  85. ^ جوي ، بيل (أبريل 2000). "لماذا المستقبل لا يحتاج إلينا". سلكي .
  86. ^ ألكسندر 1996 .
  87. ^ a b c d e f g h i Clocksin 2003 .
  88. ^ مكارثي 2003 .
  89. ^ أ ب ج د جيليرنتر 2010 .
  90. ^ أ ب مكارثي 2007 .
  91. ^ أ ب ج د هولت وشويري 2003 .
  92. ^ زوكر 2003 .
  93. ^ كابلان ، أندرياس. هاينلين ، مايكل (2019). "كابلان أندرياس وهيلين مايكل (2019) سيري ، سيري ، بين يدي: من هو الأجمل في الأرض؟ حول التفسيرات والرسوم التوضيحية وآثار الذكاء الاصطناعي". آفاق العمل . 62 : 15-25. دوى : 10.1016 / j.bushor.2018.08.004 .
  94. ^ itu.int: ما وراء الجنون؟: سباق الذكاء الاصطناعي العام أرشفة 9 نوفمبر 2020 في آلة Wayback . "يمثل الذكاء الاصطناعي العام مستوى من القوة لا يزال راسخًا في عالم الخيال التخميني كما في التاريخ." 2 فبراير 2018 ، تم استرجاعه في 3 مارس 2020
  95. ^ ألين ، بول. "التفرد ليس قريبًا" . استعراض تكنولوجيا معهد ماساتشوستس للتكنولوجيا . تم الاسترجاع 17 سبتمبر 2014 .
  96. ^ وينفيلد ، آلان. "الذكاء الاصطناعي لن يتحول إلى وحش فرانكشتاين" . الجارديان . مؤرشفة من الأصلي في 17 سبتمبر 2014 . تم الاسترجاع 17 سبتمبر 2014 .
  97. ^ رافي خاتشادوريان (23 نوفمبر 2015). "اختراع يوم القيامة: هل سيجلب لنا الذكاء الاصطناعي المدينة الفاضلة أم الدمار؟" . نيويوركر . مؤرشفة من الأصلي في 28 يناير 2016 . تم الاسترجاع 7 فبراير 2016 .
  98. ^ مولر ، VC ، & بوستروم ، إن. (2016). التقدم المستقبلي في الذكاء الاصطناعي: استطلاع رأي الخبراء. في القضايا الأساسية للذكاء الاصطناعي (ص 555-572). سبرينغر ، شام.
  99. ^ رولينسون ، كيفن. "بيل جيتس من مايكروسوفت يصر على أن الذكاء الاصطناعي يشكل تهديدا" . بي بي سي نيوز . مؤرشفة من الأصلي في 29 يناير 2015 . تم الاسترجاع 30 يناير 2015 .
  100. ^ "ستيفن هوكينج:" يبدو التفوق في الآثار المترتبة على الذكاء الاصطناعي - ولكن نحن مع الأخذ AI على محمل الجد؟ " " . إندبندنت (المملكة المتحدة) . مؤرشفة من الأصلي في 25 سبتمبر 2015 . تم الاسترجاع 3 ديسمبر 2014 .
  101. ^ بوستروم ، نيك (2014). الذكاء الخارق: المسارات والمخاطر والاستراتيجيات (الطبعة الأولى). رقم ISBN 978-0199678112.
  102. ^ "لكن ماذا تعني نهاية البشرية بالنسبة لي؟" . المحيط الأطلسي . 9 May 2014 مؤرشفة من الأصلي في 4 يونيو 2014 . تم الاسترجاع 12 ديسمبر 2015 .
  103. ^ "نجوم التكنولوجيا يعالجون التفرد" . IEEE Spectrum: أخبار التكنولوجيا والهندسة والعلوم (تقرير خاص: التفرد). 1 يونيو 2008 مؤرشفة من الأصلي في 30 أبريل 2019 . تم الاسترجاع 8 أبريل 2020 .
  104. ^ شيرمر ، مايكل (1 مارس 2017). "نهاية العالم AI" . Scientific American . ص. 77. بيب كود : 2017SciAm.316c..77S . دوى : 10.1038 / scientificamerican0317-77 . مؤرشفة من الأصلي في 1 ديسمبر 2017 . تم الاسترجاع 27 نوفمبر 2017 .

المصادر

روابط خارجية

0.13870000839233