الذكاء الاصطناعي

من ويكيبيديا، الموسوعة الحرة
اذهب إلى الملاحة اذهب للبحث

الذكاء الاصطناعي ( AI ) هو ذكاء تظهره الآلات ، على عكس الذكاء الطبيعي الذي يظهره الإنسان أو الحيوانات . تعرف كتب الذكاء الاصطناعي الرائدة المجال على أنه دراسة " الوكلاء الأذكياء ": أي نظام يدرك بيئته ويتخذ إجراءات تزيد من فرصته في تحقيق أهدافه. [أ] تستخدم بعض الحسابات الشائعة مصطلح "الذكاء الاصطناعي" لوصف الآلات التي تحاكي الوظائف "المعرفية" التي يربطها البشر بالعقل البشري ، مثل "التعلم" و "حل المشكلات" ، ولكن هذا التعريف تم رفضه من قبل كبار باحثي الذكاء الاصطناعي .[ب][ج]

تشمل تطبيقات الذكاء الاصطناعي محركات بحث الويب المتقدمة (مثل Google ) وأنظمة التوصية (المستخدمة بواسطة YouTube و Amazon و Netflix ) وفهم الكلام البشري (مثل Siri أو Alexa ) والسيارات ذاتية القيادة (مثل Tesla ) والمنافسة على أعلى مستوى في لعبة استراتيجية الأنظمة (مثل الشطرنج و العودة[2] كما أصبحت آلات قادرة على نحو متزايد، والمهام التي تعتبر تتطلب "المخابرات" وغالبا ما إزالتها من تعريف منظمة العفو الدولية، وهي ظاهرة تعرف باسمتأثير الذكاء الاصطناعي . [3] على سبيل المثال ، كثيرًا ما يتم استبعاد التعرف البصري على الأحرف من الأشياء التي تعتبر الذكاء الاصطناعي ، [4] بعد أن أصبحت تقنية روتينية. [5]

تأسس الذكاء الاصطناعي باعتباره تخصصًا أكاديميًا في عام 1956 ، وفي السنوات التي تلت ذلك شهد عدة موجات من التفاؤل ، [6] [7] تلتها خيبة أمل وفقدان التمويل (المعروف باسم " شتاء الذكاء الاصطناعي ") ، [8] [9] تليها مناهج جديدة ونجاح وتمويل متجدد. [7] [10] لقد جربت أبحاث الذكاء الاصطناعي وتجاهلت العديد من الأساليب المختلفة خلال حياتها ، بما في ذلك محاكاة الدماغ ، ونمذجة حل المشكلات البشرية ، والمنطق الرسمي ، وقواعد البيانات الكبيرة للمعرفة وتقليد سلوك الحيوان. في العقود الأولى من القرن الحادي والعشرين ، كان التعلم الآلي الإحصائي الرياضي للغايةسيطر على المجال ، وقد أثبتت هذه التقنية نجاحها للغاية ، حيث ساعدت في حل العديد من المشكلات الصعبة في جميع أنحاء الصناعة والأوساط الأكاديمية. [11] [10]

تتركز المجالات الفرعية المختلفة لأبحاث الذكاء الاصطناعي حول أهداف معينة واستخدام أدوات معينة. تشمل الأهداف التقليدية لأبحاث الذكاء الاصطناعي التفكير ، وتمثيل المعرفة ، والتخطيط ، والتعلم ، ومعالجة اللغة الطبيعية ، والإدراك والقدرة على تحريك الأشياء ومعالجتها. [د] الذكاء العام (القدرة على حل مشكلة عشوائية) هو من بين أهداف المجال على المدى الطويل. [12] لحل هذه المشكلات ، يستخدم باحثو الذكاء الاصطناعي إصدارات من البحث والتحسين الرياضي ، والمنطق الرسمي ، والشبكات العصبية الاصطناعية ، والطرق القائمة على الإحصائيات ، والاحتمالاتو الاقتصاد . توجه منظمة العفو الدولية أيضا على علم الحاسوب ، علم النفس ، علم اللغة ، الفلسفة ، والعديد من المجالات الأخرى.

تأسس هذا المجال على افتراض أن الذكاء البشري "يمكن وصفه بدقة بحيث يمكن صنع آلة لمحاكاته". [هـ] وهذا يثير الحجج الفلسفية حول العقل وأخلاقيات خلق كائنات اصطناعية تتمتع بذكاء يشبه الإنسان. تم استكشاف هذه القضايا من خلال أسطورة ، الخيال و الفلسفة منذ العصور القديمة . [13] اقترح الخيال العلمي وعلم المستقبل أيضًا أنه مع إمكاناته الهائلة وقوته ، قد يصبح الذكاء الاصطناعي خطرًا وجوديًا على البشرية. [14] [15]

تاريخ

ديدراخما الفضي من جزيرة كريت يصور تالوس ، إنسان أسطوري قديم ذو ذكاء اصطناعي

الأسلاف

الكائنات الاصطناعية مع المخابرات كما يبدو القص الأجهزة في العصور القديمة، [16] وكانت شائعة في الخيال، كما هو الحال في ماري شيلي الصورة فرانكشتاين أو كارل تشابك الصورة RUR [17] هذه الشخصيات ومصائرهم وأثارت الكثير من نفس القضايا التي تمت مناقشتها الآن في أخلاقيات الذكاء الاصطناعي . [18]

بدأت دراسة الاستدلال الميكانيكي أو "الرسمي" مع الفلاسفة وعلماء الرياضيات في العصور القديمة. دراسة المنطق الرياضي أدت مباشرة إلى آلان تورينج الصورة نظرية الحساب ، مما يوحي بأن آلة، من خلال خلط حرف بسيطة مثل "0" و "1"، يمكن محاكاة أي عمل يمكن تصوره من خصم الرياضي. تُعرف هذه الفكرة القائلة بأن أجهزة الكمبيوتر الرقمية يمكنها محاكاة أي عملية تفكير رسمي باسم أطروحة تشيرش تورينج . [19]

علم التحكم الآلي ومحاكاة الدماغ

أطروحة الكنيسة، تورينج، جنبا إلى جنب مع الاكتشافات متزامنة في علم الأعصاب ، نظرية المعلومات ، و علم التحكم الآلي ، والباحثين أدى إلى النظر في إمكانية بناء الدماغ الإلكتروني. [20] إن العمل الأول الذي يتم الآن بصفة عامة كان AI McCullouch و بيتس "تصميم الرسمي 1943 ل تورينج كاملة " الخلايا العصبية الاصطناعية ". [21] بحلول عام 1960 ، تم التخلي عن هذا النهج إلى حد كبير ، على الرغم من إحياء عناصر منه في الثمانينيات.

الذكاء الاصطناعي الرمزي

عندما أصبح الوصول إلى أجهزة الكمبيوتر الرقمية ممكنًا في منتصف الخمسينيات من القرن الماضي ، بدأت أبحاث الذكاء الاصطناعي في استكشاف إمكانية اختزال الذكاء البشري إلى التلاعب بالرموز. أطلق John Haugeland على هذه المقاربات الرمزية للذكاء الاصطناعي اسم "الذكاء الاصطناعي القديم الجيد" أو " GOFAI ". [22] تم التخلي عن الأساليب القائمة على علم التحكم الآلي أو الشبكات العصبية الاصطناعية أو دفعها إلى الخلفية.

وُلد مجال أبحاث الذكاء الاصطناعي في ورشة عمل في كلية دارتموث عام 1956. [و] [25] أصبح الحضور مؤسسي وقادة أبحاث الذكاء الاصطناعي. [26] [ز] أنتجوا هم وطلابهم برامج وصفتها الصحافة بأنها "مدهشة": [ح] كانت أجهزة الكمبيوتر تتعلم استراتيجيات الداما ، وتحل مشاكل الكلمات في الجبر ، وتثبت النظريات المنطقية وتتحدث الإنجليزية. [i] [28] بحلول منتصف الستينيات ، تم تمويل الأبحاث في الولايات المتحدة بشكل كبير من قبل وزارة الدفاع [29] وتم إنشاء المعامل في جميع أنحاء العالم. [30]

كان الباحثون في الستينيات والسبعينيات مقتنعين بأن الأساليب الرمزية ستنجح في النهاية في إنشاء آلة بذكاء عام اصطناعي واعتبروا هذا هدف مجالهم. [31] توقع هربرت سيمون أن "الآلات ستكون قادرة ، في غضون عشرين عامًا ، على القيام بأي عمل يمكن للرجل القيام به". [32] وافق مارفن مينسكي ، وكتب ، "في غضون جيل ... سيتم حل مشكلة إنشاء" الذكاء الاصطناعي "إلى حد كبير". [33]

فشلوا في إدراك صعوبة بعض المهام المتبقية. تباطأ التقدم وفي عام 1974، ردا على انتقادات من السير جيمس ليثيل [34] والضغط المستمر من الكونجرس الأمريكي ل صندوق المشاريع أكثر إنتاجية ، فإن كلا من الولايات المتحدة وقطع الحكومتين البريطانية من البحوث الاستكشافية في منظمة العفو الدولية. [8] فيما بعد ، أُطلق على السنوات القليلة التالية اسم " شتاء الذكاء الاصطناعي " ، وهي الفترة التي كان فيها الحصول على تمويل لمشروعات الذكاء الاصطناعي أمرًا صعبًا.

في أوائل الثمانينيات ، تم إحياء أبحاث الذكاء الاصطناعي من خلال النجاح التجاري للأنظمة الخبيرة ، [35] وهو شكل من أشكال برنامج الذكاء الاصطناعي الذي يحاكي المعرفة والمهارات التحليلية للخبراء البشريين. بحلول عام 1985 ، وصل سوق الذكاء الاصطناعي إلى أكثر من مليار دولار. في الوقت نفسه ، ألهم مشروع الكمبيوتر من الجيل الخامس في اليابان الحكومتين الأمريكية والبريطانية لاستعادة تمويل البحث الأكاديمي . [j] [7] ومع ذلك ، بدءًا من انهيار سوق Lisp Machine في عام 1987 ، سقطت سمعة الذكاء الاصطناعي مرة أخرى ، وبدأ شتاء ثانٍ طويل الأمد. [9]

في وقت مبكر شبه رمزي

بدأ العديد من الباحثين للشك أن النهج الرمزي سيكون قادرا على تقليد كل عمليات الإدراك البشري، وخاصة الإدراك ، والروبوتات، والتعلم و التعرف على الأنماط . بدأ عدد من الباحثين في النظر في مناهج "شبه رمزية" لمشاكل معينة في الذكاء الاصطناعي. [36] باحثو الروبوتات ، مثل رودني بروكس ، رفضوا الذكاء الاصطناعي الرمزي وركزوا على المشاكل الهندسية الأساسية التي تسمح للروبوتات بالتحرك والبقاء على قيد الحياة وتعلم بيئتها. [37] [ك] الفائدة في الشبكات العصبية و " الصلة connectionism " تم احياؤها من قبل جيفري هينتون ، دايفيد روميلهارتوآخرون في منتصف الثمانينيات. [40] تجد الحوسبة اللينة حلولًا للمشكلات التي لا يمكن حلها بيقين منطقي كامل ، وحيث يكون الحل التقريبي غالبًا كافيًا. نهج الحوسبة المرنة لمنظمة العفو الدولية تشمل الشبكات العصبية ، نظم غامض ، نظرية النظام الرمادية ، الإحتساب التطوري وأدوات عديدة مستمدة من إحصاءات أو استمثال . الذكاء الاصطناعي الإحصائي الحديث (أدناه) هو شكل من أشكال الحوسبة اللينة ، باستخدام الشبكات العصبية بشكل أساسي .

الذكاء الاصطناعي الإحصائي

استعاد الذكاء الاصطناعي سمعته تدريجياً في أواخر التسعينيات وأوائل القرن الحادي والعشرين من خلال إيجاد حلول محددة لمشاكل محددة. التركيز الضيق يسمح للباحثين تسفر عن نتائج يمكن التحقق منها، استغلال وسائل أكثر رياضية، والتعاون مع غيرها من المجالات (مثل الإحصاءات ، الاقتصاد و الرياضيات ). [l] [42] بحلول عام 2000 ، تم استخدام الحلول التي طورها باحثو منظمة العفو الدولية على نطاق واسع ، على الرغم من أنه نادرًا ما تم وصفها في التسعينيات بأنها "ذكاء اصطناعي". [11]

أدت أجهزة الكمبيوتر الأسرع ، والتحسينات الخوارزمية ، والوصول إلى كميات كبيرة من البيانات إلى حدوث تقدم في التعلم الآلي والإدراك ؛ بدأت أساليب التعلم العميق المتعطشة للبيانات في السيطرة على معايير الدقة في حوالي عام 2012 . [43] وفقًا لجاك كلارك من بلومبرج ، كان عام 2015 عامًا بارزًا للذكاء الاصطناعي ، حيث زاد عدد مشروعات البرامج التي تستخدم الذكاء الاصطناعي داخل Google من "الاستخدام المتقطع" في عام 2012 إلى أكثر من 2700 مشروع. يقدم كلارك أيضًا بيانات واقعية تشير إلى تحسينات الذكاء الاصطناعي منذ عام 2012 مدعومة بمعدلات خطأ أقل في مهام معالجة الصور. [م] ويعزو ذلك إلى زيادة في الشبكات العصبية ذات الأسعار المعقولة ، بسبب ارتفاع البنية التحتية للحوسبة السحابية وزيادة أدوات البحث ومجموعات البيانات. [10] في استطلاع عام 2017 ، ذكرت واحدة من كل خمس شركات أنها "أدمجت الذكاء الاصطناعي في بعض العروض أو العمليات". [44]

أبحاث الذكاء الاصطناعي العام

أصبح برنارد جويتز وآخرون قلقين من أن الذكاء الاصطناعي لم يعد يتابع الهدف الأصلي المتمثل في إنشاء آلات متعددة الاستخدامات وذكية بالكامل. يتم استخدام الذكاء الاصطناعي الإحصائي بشكل كبير لحل مشاكل محددة ، حتى التقنيات الناجحة للغاية مثل التعلم العميق . لقد أسسوا المجال الفرعي للذكاء العام الاصطناعي (أو "AGI") ، والذي كان لديه العديد من المؤسسات الممولة جيدًا بحلول عام 2010. [45] [46]

الأهداف

تم تقسيم المشكلة العامة لمحاكاة (أو إنشاء) الذكاء إلى مشاكل فرعية. تتكون هذه من سمات أو قدرات معينة يتوقع الباحثون أن يعرضها نظام ذكي. حظيت السمات الموضحة أدناه بأكبر قدر من الاهتمام. [د]

التفكير وحل المشكلات

طور الباحثون الأوائل خوارزميات تحاكي التفكير التدريجي الذي يستخدمه البشر عند حل الألغاز أو إجراء استنتاجات منطقية. [47] وبحلول أواخر 1980s و 1990s، أدت أبحاث الذكاء الاصطناعى وضعت أساليب للتعامل مع غير مؤكدة المعلومات أو غير مكتملة، وتوظيف مفاهيم من احتمال و الاقتصاد . [48]

أثبتت هذه الخوارزميات أنها غير كافية لحل مشاكل التفكير الكبيرة لأنها تعرضت لـ "انفجار اندماجي": فقد أصبحت أبطأ بشكل كبير مع تزايد المشكلات. [49] حتى البشر نادرًا ما يستخدمون الاستنتاج التدريجي الذي يمكن لأبحاث الذكاء الاصطناعي المبكرة أن تكون نموذجًا له. يحلون معظم مشاكلهم باستخدام أحكام سريعة وبديهية. [50]

تمثيل المعرفة

تمثل الأنطولوجيا المعرفة كمجموعة من المفاهيم داخل المجال والعلاقات بين تلك المفاهيم.

تمثيل المعرفة [51] و هندسة المعرفة [52] هي محور أبحاث الذكاء الاصطناعى الكلاسيكية. تحاول بعض "الأنظمة الخبيرة" جمع المعرفة الواضحة التي يمتلكها الخبراء في بعض المجالات الضيقة. بالإضافة إلى ذلك ، تحاول بعض المشاريع جمع "المعرفة المنطقية" المعروفة للشخص العادي في قاعدة بيانات تحتوي على معرفة واسعة حول العالم.

من بين الأشياء التي قد تحتويها قاعدة المعرفة الشاملة المنطقية: الأشياء ، والخصائص ، والفئات ، والعلاقات بين الأشياء ؛ [53] المواقف والأحداث والدول والوقت ؛ [54] الأسباب والآثار. [55] المعرفة بالمعرفة (ما نعرفه عما يعرفه الآخرون) ؛ [56] والعديد من المجالات الأخرى الأقل بحثًا.

تمثيل "ما هو موجود" هو علم الوجود : مجموعة الكائنات والعلاقات والمفاهيم والخصائص الموصوفة رسميًا بحيث يمكن لوكلاء البرامج تفسيرها. و دلالات يتم التقاط هذه كما وصف منطق المفاهيم والأدوار، والأفراد، وتنفذ عادة ما الطبقات، وخصائص، والأفراد في الويب لغة علم الوجود . [57] يُطلق على الأنطولوجيات الأكثر عمومية اسم الأنطولوجيا العليا ، والتي تحاول توفير أساس لجميع المعارف الأخرى. [58] من خلال العمل كوسيط بين أنطولوجيا المجالالتي تغطي معرفة محددة حول مجال معرفي معين (مجال الاهتمام أو مجال الاهتمام). يمكن استخدام تمثيلات المعرفة الرسمية هذه في الفهرسة والاسترجاع المستندة إلى المحتوى ، [59] تفسير المشهد ، [60] دعم القرار السريري ، [61] اكتشاف المعرفة (التنقيب عن الاستنتاجات "المثيرة للاهتمام" والقابلة للتنفيذ من قواعد البيانات الكبيرة) ، [62] و مناطق أخرى. [63]

من بين أصعب المشاكل في تمثيل المعرفة:

افتراضي المنطق و مشكلة التأهيل
العديد من الأشياء التي يعرفها الناس تأخذ شكل "افتراضات العمل". على سبيل المثال ، إذا ظهر طائر في محادثة ، فعادة ما يتخيل الناس حيوانًا بحجم قبضة اليد يغني ويطير. لا شيء من هذه الأشياء صحيح بالنسبة لجميع الطيور. حدد جون مكارثي هذه المشكلة في عام 1969 [64] على أنها مشكلة التأهيل: بالنسبة لأي قاعدة منطقية يهتم باحثو الذكاء الاصطناعي بتمثيلها ، هناك عدد كبير من الاستثناءات. لا شيء تقريبًا صحيح أو خاطئ بالطريقة التي يتطلبها المنطق المجرد. بحثت أبحاث الذكاء الاصطناعي في عدد من الحلول لهذه المشكلة. [65]
اتساع نطاق المعرفة المنطقية
عدد الحقائق الذرية التي يعرفها الشخص العادي كبير جدًا. تتطلب المشاريع البحثية التي تحاول بناء قاعدة معرفية كاملة للمعرفة المنطقية (على سبيل المثال ، Cyc ) كميات هائلة من الهندسة الأنطولوجية الشاقة - يجب أن يتم بناؤها يدويًا ، بمفهوم واحد معقد في كل مرة. [66]
شكل فرعي لبعض المعرفة المنطقية
الكثير مما يعرفه الناس لا يتم تمثيله على أنه "حقائق" أو "تصريحات" يمكنهم التعبير عنها شفهيًا. على سبيل المثال ، سيتجنب سيد الشطرنج وضعًا معينًا للشطرنج لأنه "يشعر بأنه مكشوف للغاية" [67] أو يمكن للناقد الفني أن يلقي نظرة واحدة على التمثال ويدرك أنه مزيف. [68] هذه هي حدس أو ميول غير واعية وشبه رمزية في الدماغ البشري. [69] مثل هذه المعرفة تُعلم وتدعم وتوفر سياقًا للمعرفة الرمزية الواعية.

تخطيط

و نظام التحكم الهرمي هو شكل من أشكال نظام التحكم التي يتم ترتيب مجموعة من الأجهزة والبرمجيات التي تنظم في تسلسل هرمي.

يجب أن يكون العملاء الأذكياء قادرين على تحديد الأهداف وتحقيقها. [70] يحتاجون إلى طريقة لتصور المستقبل - تمثيل لحالة العالم والقدرة على عمل تنبؤات حول كيفية تغيير أفعالهم له - والقدرة على اتخاذ خيارات تزيد من المنفعة (أو "القيمة") من الخيارات المتاحة. [71]

في مشاكل التخطيط الكلاسيكية ، يمكن للعامل أن يفترض أنه النظام الوحيد الذي يعمل في العالم ، مما يسمح للوكيل بالتأكد من عواقب أفعاله. [72] ومع ذلك ، إذا لم يكن الوكيل هو الفاعل الوحيد ، فإنه يتطلب أن يمكن للوكيل التفكير في ظل عدم اليقين. وهذا يستدعي وجود وكيل لا يمكنه فقط تقييم بيئته وإجراء التنبؤات ولكن أيضًا تقييم تنبؤاته والتكيف بناءً على تقييمه. [73]

يستخدم التخطيط متعدد العوامل التعاون والمنافسة بين العديد من الوكلاء لتحقيق هدف معين. السلوك الناشئ يستخدم مثل هذا عن طريق الخوارزميات التطورية و سرب الاستخبارات . [74]

التعلم

بالنسبة لهذا المشروع ، كان على منظمة العفو الدولية العثور على الأنماط النموذجية في الألوان وضربات الفرشاة لرسام عصر النهضة رافائيل . تُظهر اللوحة وجه الممثلة أورنيلا موتي "التي رسمتها" منظمة العفو الدولية بأسلوب رافائيل.

التعلم الآلي (ML) ، أحد المفاهيم الأساسية لأبحاث الذكاء الاصطناعي منذ بداية المجال ، [n] هو دراسة خوارزميات الكمبيوتر التي تتحسن تلقائيًا من خلال التجربة. [س] [77]

التعلم غير الخاضع للإشراف هو القدرة على العثور على أنماط في تدفق المدخلات ، دون مطالبة الإنسان بتسمية المدخلات أولاً. يشمل التعلم الخاضع للإشراف كلاً من التصنيف والانحدار العددي ، الأمر الذي يتطلب من الإنسان تسمية بيانات الإدخال أولاً. يستخدم التصنيف لتحديد الفئة التي ينتمي إليها شيء ما ، ويحدث بعد أن يرى البرنامج عددًا من الأمثلة لأشياء من عدة فئات. الانحدار هو محاولة إنتاج دالة تصف العلاقة بين المدخلات والمخرجات وتتنبأ بكيفية تغير المخرجات مع تغير المدخلات. [77]يمكن النظر إلى كل من المصنفات والمتعلمين الانحدار على أنهم "مقربون للوظائف" يحاولون تعلم وظيفة غير معروفة (ربما ضمنية) ؛ على سبيل المثال ، يمكن النظر إلى مصنف الرسائل غير المرغوب فيها على أنه تعلم وظيفة تقوم بالتعيين من نص رسالة بريد إلكتروني إلى إحدى فئتين ، "البريد العشوائي" أو "ليس البريد العشوائي". يمكن لنظرية التعلم الحسابي تقييم المتعلمين من خلال التعقيد الحسابي ، وتعقيد العينة (مقدار البيانات المطلوبة) ، أو من خلال مفاهيم أخرى للتحسين . [78] في التعلم المعزز [79] يكافأ العامل على الاستجابات الجيدة ويعاقب على الردود السيئة. يستخدم الوكيل هذا التسلسل من المكافآت والعقوبات لتشكيل استراتيجية للعمل في مساحة المشكلة.

معالجة اللغة الطبيعية

A شجرة في التحليل تمثل النحوي بنية الجملة وفقا لبعض النحوي رسمية .

تسمح معالجة اللغة الطبيعية [80] (NLP) للآلات بقراءة وفهم اللغة البشرية. من شأن نظام معالجة اللغة الطبيعية القوي بما فيه الكفاية أن يمكّن واجهات مستخدم اللغة الطبيعية واكتساب المعرفة مباشرة من مصادر كتبها الإنسان ، مثل نصوص الأخبار. تتضمن بعض التطبيقات المباشرة لمعالجة اللغة الطبيعية استرجاع المعلومات ، والتنقيب عن النصوص ، والإجابة على الأسئلة ، والترجمة الآلية . [81]تستخدم العديد من الأساليب الحالية الترددات المتزامنة للكلمات لبناء تمثيلات نحوية للنص. استراتيجيات "اكتشاف الكلمات الرئيسية" للبحث شائعة وقابلة للتطوير ولكنها غبية ؛ قد يتطابق طلب البحث عن "كلب" فقط مع المستندات مع الكلمة الحرفية "كلب" ويفتقد مستندًا يحتوي على كلمة "كلب". تستخدم استراتيجيات "التقارب المعجمي" حدوث كلمات مثل "حادث" لتقييم شعور المستند. يمكن لمناهج البرمجة اللغوية العصبية الحديثة أن تجمع بين كل هذه الاستراتيجيات وغيرها ، وتحقق غالبًا دقة مقبولة على مستوى الصفحة أو الفقرة. بعيدًا عن البرمجة اللغوية العصبية الدلالي ، فإن الهدف النهائي من البرمجة اللغوية العصبية "السردية" هو تجسيد فهم كامل للتفكير المنطقي. [82] بحلول عام 2019 ، المحولاتيمكن أن تولد معماريات التعلم العميق المستندة نصًا متماسكًا. [83]

تصور

يساعد اكتشاف الميزات (في الصورة: اكتشاف الحواف ) الذكاء الاصطناعي في تكوين هياكل مجردة إعلامية من البيانات الأولية.

آلة الإدراك [84] هو القدرة على استخدام مدخلات من أجهزة الاستشعار (مثل الكاميرات (الطيف المرئي أو الأشعة تحت الحمراء)، الميكروفونات، إشارات لاسلكية، ونشط ليدار ، السونار، والرادار، و أجهزة استشعار اللمس ) للاستدلال على جوانب من العالم. تتضمن التطبيقات التعرف على الكلام ، [85] التعرف على الوجه ، والتعرف على الأشياء . [86] رؤية الكمبيوترهي القدرة على تحليل المدخلات البصرية. عادة ما تكون هذه المدخلات غامضة ؛ قد ينتج عن المشاة العملاق الذي يبلغ ارتفاعه خمسين مترًا نفس وحدات البكسل مثل المشاة ذات الحجم الطبيعي القريب ، مما يتطلب من الذكاء الاصطناعي الحكم على الاحتمالية النسبية ومعقولية التفسيرات المختلفة ، على سبيل المثال باستخدام "نموذج الكائن" الخاص به لتقييم ذلك لا وجود للمشاة خمسين مترا. [87]

الحركة والتلاعب

يستخدم الذكاء الاصطناعي بكثرة في الروبوتات. [88] يمكن للأذرع الروبوتية المتقدمة والروبوتات الصناعية الأخرى ، المستخدمة على نطاق واسع في المصانع الحديثة ، أن تتعلم من التجربة كيفية التحرك بكفاءة على الرغم من وجود الاحتكاك وانزلاق التروس. [89] يمكن للروبوت المتحرك الحديث ، عند إعطائه بيئة صغيرة وثابتة ومرئية ، تحديد موقعه بسهولة ورسم خريطة لبيئته. ومع ذلك ، فإن البيئات الديناميكية ، مثل ( التنظير الداخلي ) داخل جسم تنفس المريض ، تشكل تحديًا أكبر. تخطيط الحركةهي عملية تقسيم مهمة الحركة إلى "بدائية" مثل الحركات الفردية المشتركة. غالبًا ما تتضمن هذه الحركة حركة متوافقة ، وهي عملية تتطلب فيها الحركة الحفاظ على الاتصال الجسدي مع شيء ما. [90] [91] [92] مفارقة مورافيك تعمم أن المهارات الحسية الحركية منخفضة المستوى التي يعتبرها البشر أمرًا مفروغًا منه ، بشكل غير متوقع ، يصعب برمجتها في روبوت. تم تسمية المفارقة على اسم Hans Moravec ، الذي صرح في عام 1988 أنه "من السهل نسبيًا جعل أجهزة الكمبيوتر تعرض أداءً بمستوى البالغين في اختبارات الذكاء أو لعب لعبة الداما ، ومن الصعب أو المستحيل منحهم مهارات طفل يبلغ من العمر عامًا واحدًا عندما يكون ذلك يتعلق بالإدراك والتنقل ". [93] [94]يُعزى هذا إلى حقيقة أنه ، على عكس لعبة الداما ، كانت البراعة الجسدية هدفًا مباشرًا للانتقاء الطبيعي لملايين السنين. [95]

الذكاء الاجتماعي

كيسمت ، روبوت ذو مهارات اجتماعية بدائية .

الحوسبة الوجدانية هي مظلة متعددة التخصصات تضم الأنظمة التي تتعرف على التأثيرات البشرية أو تفسرها أو تعالجها أو تحاكيها . [97] [98] [99] على سبيل المثال ، تمت برمجة بعض المساعدين الافتراضيين للتحدث بشكل تحاوري أو حتى المزاح بروح الدعابة. يجعلهم يبدون أكثر حساسية للديناميكيات العاطفية للتفاعل البشري ، أو لتسهيل التفاعل بين الإنسان والحاسوب . [100] ومع ذلك ، فإن هذا يميل إلى إعطاء المستخدمين الساذجين تصورًا غير واقعي عن مدى ذكاء وكلاء الكمبيوتر الحاليين. [101] النجاحات المعتدلة المتعلقة بالحوسبة العاطفية تشمل تحليل المشاعر النصيةومؤخراً ، تحليل التأثير متعدد الوسائط (انظر تحليل المشاعر متعددة الوسائط ) ، حيث يصنف الذكاء الاصطناعي التأثيرات التي يعرضها موضوع مسجل بالفيديو. [102]

المخابرات العامة

الذكاء العام هو القدرة على مواجهة أي مشكلة تعسفية. إن أبحاث الذكاء الاصطناعي الحالية ، في معظمها ، أنتجت فقط برامج يمكنها حل مشكلة واحدة بالضبط. يتوقع العديد من الباحثين أن مثل هذا العمل "الضيق للذكاء الاصطناعي" في المجالات الفردية المختلفة سيتم دمجه في النهاية في آلة ذات ذكاء عام ، والجمع بين معظم المهارات الضيقة المذكورة في هذه المقالة وفي مرحلة ما تتجاوز القدرة البشرية في معظم أو كل هذه المجالات. [12] [46] يدرس المجال الفرعي للذكاء الاصطناعي العام (أو "AGI") الذكاء العام حصريًا. [45]

أدوات

التطبيقات

الذكاء الاصطناعي وثيق الصلة بأي مهمة فكرية. [103] تقنيات الذكاء الاصطناعي الحديثة منتشرة [104] وهي كثيرة جدًا بحيث لا يمكن إدراجها هنا. في كثير من الأحيان ، عندما تصل التقنية إلى الاستخدام السائد ، فإنها لم تعد تعتبر ذكاءً اصطناعيًا ؛ توصف هذه الظاهرة بتأثير الذكاء الاصطناعي . [105]

ومن الأمثلة البارزة من منظمة العفو الدولية المركبات الذاتية (مثل الطائرات بدون طيار و السيارات ذاتية القيادة )، والتشخيص الطبي، وخلق الفن (مثل الشعر)، وتثبت النظريات الرياضية، ولعب الألعاب (مثل الشطرنج أو العودة)، محركات البحث (مثل Google بحث )، مساعدين على الانترنت (مثل سيري )، التعرف على الصور في الصور الفوتوغرافية، وفلترة البريد المزعج، وتوقع تأخير الرحلات، [106] التنبؤ القرارات القضائية، [107] استهداف الإعلانات عبر الإنترنت، [103] [108] [109] و الطاقة تخزين [110]

مع تجاوز مواقع التواصل الاجتماعي للتلفزيون كمصدر للأخبار للشباب والمؤسسات الإخبارية التي تعتمد بشكل متزايد على منصات التواصل الاجتماعي لتوليد التوزيع ، [111] يستخدم كبار الناشرين الآن تقنية الذكاء الاصطناعي (AI) لنشر القصص بشكل أكثر فعالية وتوليد كميات أكبر من حركة المرور. [112]

يمكن للذكاء الاصطناعي أيضًا إنتاج تقنية Deepfakes ، وهي تقنية لتغيير المحتوى. تقارير ZDNet ، "إنها تقدم شيئًا لم يحدث بالفعل" ، على الرغم من أن 88٪ من الأمريكيين يعتقدون أن تقنية Deepfakes يمكن أن تسبب ضررًا أكثر من نفعها ، إلا أن 47٪ فقط منهم يعتقدون أنه يمكن استهدافهم. كما أدى ازدهار العام الانتخابي إلى فتح الخطاب العام أمام تهديدات مقاطع الفيديو الخاصة بوسائل الإعلام السياسية المزيفة. [113]

فلسفة

تعريف الذكاء الاصطناعي

جادل آلان تورينج ، في بحث علمي عام 1950 بعنوان " آلات الحوسبة والذكاء " ، بأن الشيء الوحيد المهم هو السلوك الخارجي للآلة (كما يتضح من اختبار تورينج الشهير ) ، وأظهر أن جميع الاعتراضات الشائعة على الفكرة " يمكن للآلات أن تفكر "تختفي عندما ننظر إلى المشكلة من وجهة النظر هذه. [114] اقترح تورينج تغيير السؤال من ما إذا كانت الآلة ذكية ، إلى "ما إذا كان من الممكن للآلة أن تظهر سلوكًا ذكيًا أم لا". [115] نظرًا لأننا لا نستطيع سوى رؤية السلوك ، فلا يهم إذا كانت الآلة واعية أو لديها عقل، أو ما إذا كان الذكاء مجرد "محاكاة" وليس "الشيء الحقيقي". وأشار إلى أننا أيضًا لا نعرف هذه الأشياء عن الأشخاص الآخرين ، لكننا نوسع "اتفاقية مهذبة" بأنهم في الواقع "يفكرون".

في اقتراح ورشة عمل دارتموث عام 1956 ، كتب جون مكارثي "كل جانب من جوانب التعلم أو أي سمة أخرى من سمات الذكاء يمكن وصفها بدقة بحيث يمكن صنع آلة لمحاكاتها." [116] باستخدام كلمة "محاكاة" ، قام مكارثي بتعريف الذكاء الاصطناعي بطريقة تتجنب كل نقاش حول ما إذا كانت برامجهم يمكن أن تتمتع أيضًا بتجربة واعية ذاتية كما يفعل البشر.

اقترح نيويل وسيمون فرضية أنظمة الرموز الفيزيائية : "نظام الرموز الفيزيائية لديه الوسائل الضرورية والكافية للعمل الذكي العام." [117] ومع ذلك ، في التسعينيات أصبح من الواضح أن "التلاعب بالرموز" لن يكون كافيًا لمحاكاة الذكاء البشري. البرامج التي أنتجت حلولًا رمزية دقيقة لا يمكنها حل مشكلات الفطرة السليمة دون استخدام مليارات السنين من وقت الكمبيوتر (حد يُعرف باسم " الاستعصاء ") [118] جادل الفيلسوف هوبير دريفوس منذ الستينيات بأن الخبرة البشرية تعتمد على غريزة اللاوعي بدلاً من التلاعب الواعي بالرموز ، و "الشعور" بالموقف ،بدلاً من المعرفة الرمزية الصريحة.[119] على الرغم من أن حججه قد تعرضت للسخرية والتجاهل عند تقديمها لأول مرة ، إلا أن أبحاث الذكاء الاصطناعي اتفقت في النهاية. [p] والذكاء الاصطناعي الإحصائي الحديث يحاكي قدرتنا على "التخمين" بناءً على "تجربتنا" ، بدلاً من الأوصاف والرموز الدقيقة.

ظلت الأسئلة التي قسمت أبحاث الذكاء الاصطناعي تاريخيًا دون إجابة وقد يتعين إعادة النظر فيها من خلال البحث المستقبلي. [122] [123] فيما يلي بعض الأسئلة التي ظلت دون إجابة لفترة طويلة:

  • هل يجب على الذكاء الاصطناعي محاكاة الذكاء الطبيعي من خلال دراسة علم النفس أو علم الأعصاب ؟ أم أن علم الأحياء البشري لا علاقة له بأبحاث الذكاء الاصطناعي مثل بيولوجيا الطيور بالنسبة لهندسة الطيران ؟ [ج]
  • هل يمكن وصف السلوك الذكي باستخدام مبادئ بسيطة وأنيقة (مثل المنطق أو التحسينأم أنها تتطلب بالضرورة حل عدد كبير من المشاكل غير ذات الصلة؟ [126]
  • هل يمكننا كتابة البرامج التي تجد حلولًا صحيحة بشكل يمكن إثباته لمشكلة معينة (على سبيل المثال ، استخدام المنطق والمعرفة الرمزي)؟ أم أننا نستخدم خوارزميات لا تقدم لنا سوى حل "معقول" (مثل الأساليب الاحتمالية) ولكنها قد تقع فريسة لنفس النوع من الأخطاء الغامضة التي يرتكبها الحدس البشري؟ [122]
  • سوفت AI متابعة أهداف المخابرات العامة الاصطناعي و الخارق مباشرة؟ أم أنه من الأفضل حل أكبر عدد ممكن من المشكلات المحددة على أمل أن تؤدي هذه الحلول بشكل غير مباشر إلى أهداف المجال على المدى الطويل؟ [45] [12] [46]

وعي الآلة والوعي والعقل

يمكن أن يكون آلة لديها العقل ، وعيه و الحالات الذهنية في نفس بمعنى أن البشر تفعل؟ يتناول هذا السؤال التجارب الداخلية للآلة ، وليس سلوكها الخارجي.

تعتبر أبحاث الذكاء الاصطناعي السائدة هذا السؤال غير ذي صلة ، لأنه لا يؤثر على أهداف المجال. ستيوارت راسيل و بيتر نورفيغ نلاحظ أن معظم الباحثين AI "لا يهمني القوي AI فرضية طالما أن يعمل البرنامج، أنهم لا يهتمون ما إذا كنت أسميها محاكاة الذكاء أو الذكاء الحقيقي." [127] ومع ذلك ، فقد أصبح السؤال محوريًا في فلسفة العقل . إنه أيضًا السؤال المركزي المطروح في موضوع الذكاء الاصطناعي في الخيال .

الوعي

حدد ديفيد تشالمرز مشكلتين في فهم العقل ، أسماها مشاكل الوعي "الصعبة" و "السهلة". [128] تكمن المشكلة السهلة في فهم كيفية معالجة الدماغ للإشارات ووضع الخطط والتحكم في السلوك. تكمن المشكلة الصعبة في شرح كيف يشعر هذا أو لماذا يجب أن يشعر وكأنه أي شيء على الإطلاق. من السهل شرح معالجة المعلومات البشرية ، ولكن يصعب تفسير التجربة الذاتية البشرية . على سبيل المثال ، من السهل تخيل شخص مكفوف الألوان تعلم كيفية تحديد الأشياء في مجال رؤيته باللون الأحمر ، ولكن ليس من الواضح ما هو المطلوب حتى يعرف الشخص كيف يبدو اللون الأحمر .

الحوسبية والوظيفية

الحوسبة هي الموقف في فلسفة العقل بأن العقل البشري هو نظام معالجة المعلومات وأن التفكير هو شكل من أشكال الحوسبة. [129] تجادل الحوسبة بأن العلاقة بين العقل والجسد مماثلة أو مطابقة للعلاقة بين البرمجيات والأجهزة ، وبالتالي قد تكون حلاً لمشكلة العقل والجسد . واستلهم هذا الموقف الفلسفي من خلال العمل من الباحثين والعلماء AI المعرفي في 1960s واقترح في الأصل من قبل الفلاسفة جيري فودور و هيلاري بوتنام .

فرضية قوية للذكاء الاصطناعي

ينص الموقف الفلسفي الذي أطلقه جون سيرل على "الذكاء الاصطناعي القوي" على ما يلي: "الكمبيوتر المبرمج بشكل مناسب مع المدخلات والمخرجات الصحيحة سيكون له بالتالي عقل بنفس المعنى الذي يمتلكه البشر." [q] يرد سيرل على هذا التأكيد بحجته في الغرفة الصينية ، والتي تحاول إظهار أنه حتى لو كانت الآلة تحاكي السلوك البشري تمامًا ، فلا يوجد سبب لافتراض أن لديها أيضًا عقلًا. [131]

حقوق الروبوت

إذا كان للآلة عقل وخبرة ذاتية ، فقد يكون لديها أيضًا حس (القدرة على الشعور) ، وإذا كان الأمر كذلك ، فقد تعاني أيضًا ، وبالتالي سيكون لها حقوق معينة. هذه القضية ، التي تُعرف الآن باسم " حقوق الروبوت " ، يتم النظر فيها حاليًا من قبل ، على سبيل المثال ، معهد كاليفورنيا للمستقبل ، على الرغم من أن العديد من النقاد يعتقدون أن المناقشة سابقة لأوانها. [132] [133] يجادل بعض منتقدي ما بعد الإنسانية بأن أي حقوق افتراضية للروبوت سوف تقع ضمن نطاق حقوق الحيوان وحقوق الإنسان. [134] تمت مناقشة الموضوع بعمق في الفيلم الوثائقي لعام 2010 Plug & Pray، [135] والعديد من وسائط الخيال العلمي مثل Star Trek Next Generation ، بشخصية Commander Data ، الذي كافح ليتم تفكيكه من أجل البحث ، وأراد "أن يصبح إنسانًا" ، والصور المجسمة الآلية في Voyager.

مستقبل الذكاء الاصطناعي

ذكاء خارق

الذكاء الخارق ، الذكاء المفرط ، أو الذكاء الخارق هو عامل افتراضي يمتلك ذكاءً يفوق ذكاء العقل البشري الأكثر سطوعًا والأكثر موهبة. قد يشير الذكاء الخارق أيضًا إلى شكل أو درجة الذكاء التي يمتلكها مثل هذا الوكيل. [46]

التفرد التكنولوجي

إذا أنتج البحث في الذكاء الاصطناعي العام برمجيات ذكية بدرجة كافية ، فقد تتمكن من إعادة برمجة نفسها وتحسينها. سيكون البرنامج المحسن أفضل في تحسين نفسه ، مما يؤدي إلى تحسين ذاتي متكرر . [136] وبالتالي يمكن للذكاء الجديد أن يزيد أضعافًا مضاعفة ويتفوق على البشر بشكل كبير. أطلق كاتب الخيال العلمي فيرنور فينج على هذا السيناريو اسم " التفرد ". [137]التفرد التكنولوجي هو عندما يؤدي تسريع التقدم في التقنيات إلى إحداث تأثير هائل حيث يتجاوز الذكاء الاصطناعي القدرة والتحكم الفكري البشري ، وبالتالي تغيير الحضارة بشكل جذري أو حتى إنهاؤها. نظرًا لأن قدرات مثل هذا الذكاء قد يكون من المستحيل فهمها ، فإن التفرد التكنولوجي هو حدث لا يمكن التنبؤ بعده بالأحداث أو حتى لا يمكن فهمها. [137] [46]

استخدم راي كورزويل قانون مور (الذي يصف التحسن الأسي المستمر في التكنولوجيا الرقمية) لحساب أن أجهزة الكمبيوتر المكتبية ستتمتع بنفس قوة المعالجة التي تتمتع بها الأدمغة البشرية بحلول عام 2029 ويتوقع أن يحدث التفرد في عام 2045. [137]

ما بعد الإنسانية

توقع مصمم الروبوتات هانز مورافيك ، وعالم علم الإنترنت كيفن وارويك ، والمخترع راي كورزويل أن البشر والآلات سوف يندمجون في المستقبل ليصبحوا سايبورغ أكثر قدرة وقوة من أي منهما. [138] هذه الفكرة، ودعا بعد إنسانية ، لها جذور في ألدوس هكسلي و روبرت إتينجر .

يجادل إدوارد فريدكين بأن "الذكاء الاصطناعي هو المرحلة التالية في التطور" ، وهي فكرة اقترحها صموئيل بتلر " داروين بين الآلات " منذ عام 1863 ، ووسعها جورج دايسون في كتابه الذي يحمل نفس الاسم في 1998. [139]

تأثير

الآثار الاقتصادية طويلة المدى للذكاء الاصطناعي غير مؤكدة. أظهر مسح لخبراء الاقتصاد عدم اتفاق حول ما إذا كان الاستخدام المتزايد للروبوتات والذكاء الاصطناعي سيؤدي إلى زيادة كبيرة في البطالة طويلة الأجل ، لكنهم يتفقون عمومًا على أنه يمكن أن يكون صافي فائدة ، إذا تمت إعادة توزيع مكاسب الإنتاجية . [140] أشارت دراسة أجرتها شركة PricewaterhouseCoopers في عام 2017 إلى أن جمهورية الصين الشعبية تحقق أكبر استفادة اقتصاديًا من الذكاء الاصطناعي بنسبة 26.1٪ من الناتج المحلي الإجمالي حتى عام 2030. [141]دعا الكتاب الأبيض الصادر عن الاتحاد الأوروبي في فبراير 2020 حول الذكاء الاصطناعي إلى الذكاء الاصطناعي لتحقيق منافع اقتصادية ، بما في ذلك "تحسين الرعاية الصحية (مثل جعل التشخيص أكثر دقة ، وتمكين الوقاية بشكل أفضل من الأمراض) ، وزيادة كفاءة الزراعة ، والمساهمة في التخفيف من تغير المناخ والتكيف معه ، [و] تحسين كفاءة أنظمة الإنتاج من خلال الصيانة التنبؤية "، مع الاعتراف بالمخاطر المحتملة. [104]

و العلاقة بين الأتمتة والعمل معقد. بينما تقضي الأتمتة على الوظائف القديمة ، فإنها تخلق أيضًا وظائف جديدة من خلال تأثيرات الاقتصاد الجزئي والاقتصاد الكلي. [142] على عكس موجات الأتمتة السابقة ، يمكن إلغاء العديد من وظائف الطبقة المتوسطة بواسطة الذكاء الاصطناعي. تذكر مجلة الإيكونوميست أن "القلق من أن الذكاء الاصطناعي يمكن أن يفعله لوظائف ذوي الياقات البيضاء مثلما فعلته القوة البخارية للموظفين أثناء الثورة الصناعية" يستحق أن يؤخذ على محمل الجد ". [143] تختلف التقديرات الشخصية للمخاطر على نطاق واسع. على سبيل المثال ، يقدر مايكل أوزبورن وكارل بينيديكت فراي أن 47٪ من الوظائف الأمريكية معرضة "لخطر كبير" من الأتمتة المحتملة ، بينما يصنف تقرير منظمة التعاون الاقتصادي والتنمية 9٪ فقط من الوظائف الأمريكية على أنها "مخاطرة عالية".[144] [145] [146] تتراوح الوظائف المعرضة لخطر شديد من المساعدين القانونيين إلى طهاة الوجبات السريعة ، بينما من المرجح أن يزداد الطلب على الوظائف للمهن المتعلقة بالرعاية والتي تتراوح من الرعاية الصحية الشخصية إلى رجال الدين. [147] يذهبالمؤلف مارتن فورد وآخرون إلى أبعد من ذلك ويقولون أن العديد من الوظائف روتينية ومتكررة ويمكن التنبؤ بها (إلى الذكاء الاصطناعي). يحذر فورد من أن هذه الوظائف قد تتم أتمتة في العقدين المقبلين ، وأن العديد من الوظائف الجديدة قد لا تكون "متاحة للأشخاص ذوي القدرات المتوسطة" ، حتى مع إعادة التدريب. يشير الاقتصاديون إلى أن التكنولوجيا في الماضي كانت تميل إلى زيادة العمالة الإجمالية بدلاً من خفضها ، لكنهم يعترفون بأننا "في منطقة مجهولة" مع الذكاء الاصطناعي. [148]

وكانت الآثار السلبية المحتملة لمنظمة العفو الدولية وأتمتة قضية رئيسية بالنسبة أندرو يانغ الصورة 2020 حملة الانتخابات الرئاسية في الولايات المتحدة. [149]أعرب إيراكلي بيريدز ، رئيس مركز الذكاء الاصطناعي والروبوتات في معهد الأمم المتحدة لبحوث الجريمة والعدالة ، الأمم المتحدة ، عن أنه "أعتقد أن التطبيقات الخطيرة للذكاء الاصطناعي ، من وجهة نظري ، ستكون مجرمين أو منظمات إرهابية كبيرة تستخدمه لتعطيل العمليات الكبيرة أو ببساطة يتسببون في ضرر محض. [الإرهابيون يمكن أن يسببوا ضررًا] من خلال الحرب الرقمية ، أو قد يكون مزيجًا من الروبوتات والطائرات بدون طيار والذكاء الاصطناعي وأشياء أخرى أيضًا قد تكون خطيرة حقًا. وبالطبع ، تأتي المخاطر الأخرى من أشياء مثل فقدان الوظائف. إذا كان لدينا عدد هائل من الأشخاص يفقدون وظائفهم ولم يجدوا حلاً ، فسيكون ذلك خطيرًا للغاية. أشياء مثل أنظمة الأسلحة الفتاكة المستقلة يجب أن تُحكم بشكل صحيح - وإلا فهناك احتمال كبير لسوء الاستخدام. " [150]

مخاطر الذكاء الاصطناعي الضيق

قد يكون لاستخدام الذكاء الاصطناعي على نطاق واسع عواقب غير مقصودة خطيرة أو غير مرغوب فيها. وصف علماء من معهد Future of Life ، من بين آخرين ، بعض الأهداف البحثية قصيرة المدى لمعرفة كيف يؤثر الذكاء الاصطناعي على الاقتصاد ، والقوانين والأخلاقيات التي ينطوي عليها الذكاء الاصطناعي وكيفية تقليل مخاطر أمن الذكاء الاصطناعي. على المدى الطويل ، اقترح العلماء الاستمرار في تحسين الوظيفة مع تقليل مخاطر الأمان المحتملة التي تأتي مع التقنيات الجديدة. [151]

يشعر البعض بالقلق بشأن التحيز الخوارزمي ، حيث قد تصبح برامج الذكاء الاصطناعي متحيزة عن غير قصد بعد معالجة البيانات التي تظهر التحيز. [152] للخوارزميات بالفعل العديد من التطبيقات في الأنظمة القانونية. ومن الأمثلة على ذلك برنامج كومباس ، وهو برنامج تجاري تستخدمه المحاكم الأمريكية على نطاق واسع لتقييم احتمال عودة المدعى عليه إلى الإجرام . تدعي ProPublica أن مستوى مخاطر النكوص الذي حددته كومباس للمتهمين السود من المرجح أن يكون مبالغًا فيه أكثر من مستوى المدعى عليهم البيض. [153]

مخاطر الذكاء الاصطناعي العام

أعرب الفيزيائي ستيفن هوكينج ، ومؤسس شركة مايكروسوفت بيل جيتس ، وأستاذ التاريخ يوفال نوح هراري ، ومؤسس سبيس إكس ، إيلون ماسك ، عن مخاوفهم بشأن إمكانية تطور الذكاء الاصطناعي لدرجة أن البشر لا يستطيعون التحكم فيه ، مع نظريات هوكينج بأن هذا يمكن أن " يحدد النهاية. للجنس البشري ". [154] [155] [156] [157]

يمكن أن يؤدي تطوير الذكاء الاصطناعي الكامل إلى نهاية الجنس البشري. بمجرد أن يطور البشر ذكاءً اصطناعيًا ، فإنه سينطلق من تلقاء نفسه ويعيد تصميم نفسه بمعدل متزايد باستمرار. البشر ، المحدودين بسبب التطور البيولوجي البطيء ، لا يستطيعون التنافس وسيتم استبدالهم.

يقدم الفيلسوف نيك بوستروم في كتابه Superintelligence حجة مفادها أن الذكاء الاصطناعي سيشكل تهديدًا للبشرية. يجادل بأن الذكاء الاصطناعي الذكي بدرجة كافية ، إذا اختار إجراءات تستند إلى تحقيق هدف ما ، سيظهر تقارباًسلوك مثل الحصول على الموارد أو حماية نفسها من التعرض للإغلاق. إذا كانت أهداف الذكاء الاصطناعي هذه لا تعكس الإنسانية بالكامل - أحد الأمثلة على ذلك هو الذكاء الاصطناعي الذي تم إخباره بحساب أكبر عدد ممكن من أرقام pi - فقد يلحق الضرر بالبشرية من أجل الحصول على المزيد من الموارد أو منع نفسه من الانغلاق ، وفي النهاية تحقيق هدفه بشكل أفضل . يؤكد بوستروم أيضًا على صعوبة نقل القيم الإنسانية بالكامل إلى ذكاء اصطناعي متقدم. يستخدم المثال الافتراضي لإعطاء الذكاء الاصطناعي هدفًا لجعل البشر يبتسمون لتوضيح محاولة مضللة. يجادل بوستروم أنه إذا أصبح الذكاء الاصطناعي في هذا السيناريو فائق الذكاء ، فقد يلجأ إلى الأساليب التي قد يجدها معظم البشر مرعبة ، مثل إدخال "أقطاب كهربائية في عضلات وجه البشر لإحداث ابتسامات ثابتة ومشرقة"لأن ذلك سيكون وسيلة فعالة لتحقيق هدفه في جعل البشر يبتسمون.[159] في كتابه متوافق مع الإنسان ،صدىباحث الذكاء الاصطناعي ستيوارت ج. راسل بعض مخاوف بوستروم بينما اقترح أيضًا نهجًا لتطوير آلات مفيدة مثبتة تركز على عدم اليقين والإذعان للبشر ، [160] : 173 ربما يتضمن التعلم التعزيزي العكسي . [160] : 191-193

أدى القلق بشأن مخاطر الذكاء الاصطناعي إلى بعض التبرعات والاستثمارات رفيعة المستوى. خصصت مجموعة من عمالقة التكنولوجيا البارزين ، بما في ذلك Peter Thiel و Amazon Web Services و Musk ، مليار دولار لشركة OpenAI ، وهي شركة غير ربحية تهدف إلى دعم تطوير الذكاء الاصطناعي المسؤول. [161] آراء الخبراء في مجال الذكاء الاصطناعي مختلطة ، مع وجود أجزاء كبيرة معنية وغير مهتمة بالمخاطر الناتجة عن الذكاء الاصطناعي الخارق في نهاية المطاف. [162] يعتقد قادة صناعة التكنولوجيا الآخرون أن الذكاء الاصطناعي مفيد في شكله الحالي وسيستمر في مساعدة البشر. الرئيس التنفيذي لشركة أوراكل مارك هيردصرح بأن الذكاء الاصطناعي "سيخلق بالفعل المزيد من الوظائف ، وليس وظائف أقل" حيث ستكون هناك حاجة إلى البشر لإدارة أنظمة الذكاء الاصطناعي. [163] يعتقد مارك زوكربيرج ، الرئيس التنفيذي لفيسبوك ، أن الذكاء الاصطناعي "سيفتح قدرًا هائلاً من الأشياء الإيجابية" ، مثل علاج الأمراض وزيادة سلامة السيارات ذاتية القيادة. [164] في يناير 2015 ، تبرع ماسك بمبلغ 10 ملايين دولار لمعهد Future of Life لتمويل الأبحاث حول فهم عملية صنع القرار في الذكاء الاصطناعي. هدف المعهد هو "تنمية الحكمة التي ندير بها" القوة المتزايدة للتكنولوجيا. كما يمول ماسك الشركات التي تعمل على تطوير الذكاء الاصطناعي مثل DeepMind و Vicarious "لمجرد مراقبة ما يحدث للذكاء الاصطناعي.[165]أعتقد أن من المحتمل هناك نتائج خطيرة هناك. " [166] [167]

من أجل إدراك خطر الذكاء الاصطناعي المتقدم غير المتحكم فيه ، سيتعين على الذكاء الاصطناعي الافتراضي أن يتغلب على الإنسانية بأكملها أو يتفوق عليها ، وهو ما يجادل أقلية من الخبراء بأنه احتمال بعيد بما يكفي في المستقبل حتى لا يستحق البحث. [168] [169] تدور الحجج المضادة الأخرى حول كون الإنسان ذو قيمة جوهرية أو متقاربة من منظور الذكاء الاصطناعي. [170]

الآلات الأخلاقية

تمتلك الآلات ذات الذكاء القدرة على استخدام ذكائها لمنع الضرر وتقليل المخاطر ؛ قد يكون لديهم القدرة على استخدام التفكير الأخلاقي لاختيار أفضل لأفعالهم في العالم. على هذا النحو ، هناك حاجة لصنع السياسات لوضع سياسات وتنظيم الذكاء الاصطناعي والروبوتات. [171] بحوث في هذا المجال تشمل الأخلاق آلة ، وكلاء الأخلاقي الاصطناعي ، AI دية والنقاش نحو بناء حقوق الإنسان الإطار هو أيضا في المحادثات. [172]

كتب جوزيف وايزنباوم في كتابه " قوة الكمبيوتر والعقل البشري" أن تطبيقات الذكاء الاصطناعي لا يمكنها ، بحكم تعريفها ، محاكاة التعاطف البشري الحقيقي بنجاح وأن استخدام تقنية الذكاء الاصطناعي في مجالات مثل خدمة العملاء أو العلاج النفسي [r] كان مضللاً للغاية. كان وايزنباوم منزعجًا أيضًا من أن باحثي الذكاء الاصطناعي (وبعض الفلاسفة) كانوا على استعداد لرؤية العقل البشري على أنه ليس أكثر من برنامج كمبيوتر (وهو منصب يُعرف الآن باسم الحوسبة ). بالنسبة إلى Weizenbaum ، تشير هذه النقاط إلى أن أبحاث الذكاء الاصطناعي تقلل من قيمة الحياة البشرية. [174]

عوامل أخلاقية اصطناعية

قدم Wendell Wallach مفهوم العوامل الأخلاقية الاصطناعية (AMA) في كتابه Moral Machines [175] بالنسبة للاش ، أصبحت AMAs جزءًا من المشهد البحثي للذكاء الاصطناعي كما يسترشد بسؤالين محوريين عرّفهما بـ "هل تريد الإنسانية أجهزة الكمبيوتر تتخذ قرارات أخلاقية " [176] و" يمكن أن تكون الروبوتات أخلاقية حقًا ". [177] بالنسبة للاش ، فإن السؤال لا يتمحور حول مسألة ما إذا كان بإمكان الآلات إظهار ما يعادل السلوك الأخلاقي ، على عكس القيود التي قد يضعها المجتمع على تطوير AMAs. [178]

أخلاقيات الآلة

يهتم مجال أخلاقيات الآلة بإعطاء الآلات مبادئ أخلاقية ، أو إجراء لاكتشاف طريقة لحل المعضلات الأخلاقية التي قد تواجههم ، وتمكينهم من العمل بطريقة مسؤولة أخلاقياً من خلال اتخاذ قراراتهم الأخلاقية. [179]تم تحديد المجال في ندوة AAAI لخريف 2005 حول أخلاقيات الماكينة: "ركزت الأبحاث السابقة المتعلقة بالعلاقة بين التكنولوجيا والأخلاق إلى حد كبير على الاستخدام المسؤول وغير المسؤول للتكنولوجيا من قبل البشر ، مع اهتمام عدد قليل من الأشخاص بالكيفية التي يجب أن يقوم بها البشر معالجة الآلات. في جميع الحالات ، شارك البشر فقط في التفكير الأخلاقي. لقد حان الوقت لإضافة بُعد أخلاقي على الأقل إلى بعض الآلات. التعرف على التداعيات الأخلاقية للسلوك الذي يشمل الآلات ، وكذلك التطورات الأخيرة والمحتملة في الماكينة الاستقلالية ، تستلزم ذلك ، على عكس قرصنة الكمبيوتر ، وقضايا ملكية البرامج ، وقضايا الخصوصية وغيرها من الموضوعات التي تُعزى عادةً إلى أخلاقيات الكمبيوتر ، فإن أخلاقيات الآلة تهتم بسلوك الآلات تجاه المستخدمين البشر والآلات الأخرى.البحث في أخلاقيات الآلة هو المفتاح لتخفيف المخاوف بشأن الأنظمة المستقلة - يمكن القول بأن فكرة الآلات المستقلة بدون مثل هذا البعد هي أصل كل مخاوف تتعلق بذكاء الآلة. علاوة على ذلك ، يمكن أن يمكّن التحقيق في أخلاقيات الآلة من اكتشاف المشكلات المتعلقة بالنظريات الأخلاقية الحالية ، مما يؤدي إلى تطوير تفكيرنا حول الأخلاق ".[180] يشار إلى أخلاقيات الآلة أحيانًا بأخلاقيات الآلة أو الأخلاقيات الحسابية أو الأخلاق الحسابية. يمكن العثور على مجموعة متنوعة من وجهات النظر لهذا المجال الناشئ في النسخة المجمعة "أخلاقيات الماكينة" [179] والتي تنبع من ندوة AAAI خريف 2005 حول أخلاقيات الماكينة. [180]

الذكاء الاصطناعي الخبيث والودي

يعتقد العالم السياسي تشارلز ت. روبين أن الذكاء الاصطناعي لا يمكن تصميمه أو ضمان كونه خيرًا. [181] يجادل بأن "أي إحسان متقدم بما فيه الكفاية قد لا يمكن تمييزه عن الحقد." لا ينبغي للبشر أن يفترضوا أن الآلات أو الروبوتات ستعاملنا بشكل إيجابي لأنه لا يوجد سبب مسبق للاعتقاد بأنهم سيكونون متعاطفين مع نظامنا الأخلاقي ، الذي تطور جنبًا إلى جنب مع علم الأحياء الخاص بنا (الذي لن تشاركه أنظمة الذكاء الاصطناعي). قد لا تقرر البرامج فائقة الذكاء بالضرورة دعم الوجود المستمر للبشرية وسيكون من الصعب للغاية إيقافها. كما بدأ حديثًا مناقشة هذا الموضوع في المنشورات الأكاديمية كمصدر حقيقي للمخاطر على الحضارة والبشر وكوكب الأرض.

أحد الاقتراحات للتعامل مع هذا هو التأكد من أن أول ذكاء اصطناعي ذكي بشكل عام هو " ذكاء اصطناعي صديق" وسيكون قادرًا على التحكم في أنظمة الذكاء الاصطناعي المطورة لاحقًا. يتساءل البعض عما إذا كان هذا النوع من الشيكات يمكن أن يظل في مكانه بالفعل.

كتب الباحث الرائد في مجال الذكاء الاصطناعي ، رودني بروكس ، "أعتقد أنه من الخطأ أن تقلق بشأن تطويرنا للذكاء الاصطناعي الخبيث في أي وقت خلال مئات السنين القادمة. أعتقد أن القلق ينبع من خطأ جوهري في عدم التمييز بين التطورات الأخيرة الحقيقية جدًا. في جانب معين من الذكاء الاصطناعي وضخامة وتعقيد بناء ذكاء إرادي واعي ". [182]

الأسلحة الفتاكة المستقلة تثير القلق. في عام 2015 ، تقوم أكثر من خمسين دولة بالبحث عن روبوتات ساحة المعركة ، بما في ذلك الولايات المتحدة والصين وروسيا والمملكة المتحدة. يريد العديد من الأشخاص القلقين بشأن مخاطر الذكاء الاصطناعي الفائق أيضًا الحد من استخدام الجنود الاصطناعيين والطائرات بدون طيار. [183]

اللائحة

تنظيم الذكاء الاصطناعي هو تطوير سياسات وقوانين القطاع العام لتعزيز وتنظيم الذكاء الاصطناعي (AI) ؛ [184] [185] لذلك فهو مرتبط بالتنظيم الأوسع للخوارزميات . يعد المشهد التنظيمي والسياسي للذكاء الاصطناعي قضية ناشئة في الولايات القضائية على مستوى العالم ، بما في ذلك في الاتحاد الأوروبي. [186] يعتبر التنظيم ضروريًا لتشجيع الذكاء الاصطناعي وإدارة المخاطر المرتبطة به. [187] [188] يمكن أيضًا اعتبار تنظيم الذكاء الاصطناعي من خلال آليات مثل مجالس المراجعة وسيلة اجتماعية للتعامل مع مشكلة التحكم في الذكاء الاصطناعي . [189]

نظرًا للمخاوف بشأن استغلال البيانات ، طور الاتحاد الأوروبي أيضًا سياسة ذكاء اصطناعي ، مع مجموعة عمل تدرس طرقًا لضمان الثقة في استخدام الذكاء الاصطناعي. تم إصدارها في ورقتين أبيضتين في خضم وباء COVID-19. تسمى إحدى السياسات المتعلقة بالذكاء الاصطناعي النهج الأوروبي للتميز والثقة. [190] [191] [192]

في الخيال

كلمة "robot" نفسها صاغها Karel Čapek في مسرحيته RUR عام 1921 ، وهو العنوان الذي يرمز إلى "Rossum's Universal Robots"

ظهرت الكائنات المصطنعة القادرة على التفكير كأجهزة لسرد القصص منذ العصور القديمة ، [16] وكانت موضوعًا ثابتًا في الخيال العلمي .

ألف مشترك المجاز في هذه الأعمال بدأت مع ماري شيلي الصورة فرانكشتاين ، حيث يصبح خلق الإنسان تهديدا لأسياده. يتضمن ذلك أعمالًا مثل Arthur C. Clarke و Stanley Kubrick's 2001: A Space Odyssey (كلاهما 1968) ، مع HAL 9000 ، الكمبيوتر القاتل المسؤول عن سفينة الفضاء Discovery One ، بالإضافة إلى The Terminator (1984) و The Matrix (1999) ). في المقابل ، فإن الروبوتات المخلصة النادرة مثل Gort من The Day the Earth Stood Still (1951) و Bishop from Aliens (1986) أقل شهرة في الثقافة الشعبية. [193]

قدم إسحاق أسيموف القوانين الثلاثة للروبوتات في العديد من الكتب والقصص ، وأبرزها سلسلة "Multivac" التي تدور حول جهاز كمبيوتر فائق الذكاء يحمل نفس الاسم. غالبًا ما يتم طرح قوانين Asimov أثناء المناقشات العامة لأخلاقيات الآلة ؛ [194] في حين أن جميع باحثي الذكاء الاصطناعي تقريبًا على دراية بقوانين أسيموف من خلال الثقافة الشعبية ، إلا أنهم يعتبرون عمومًا هذه القوانين غير مجدية لأسباب عديدة ، أحدها غموضها. [195]

تم استكشاف ما بعد الإنسانية (دمج البشر والآلات) في المانجا Ghost in the Shell وسلسلة الخيال العلمي Dune . في الثمانينيات من القرن الماضي ، تم رسم سلسلة الروبوتات المثيرة للفنان هاجيمي سوراياما ونشرها في اليابان والتي تصور الشكل البشري العضوي الفعلي بجلد عضلي عضلي نابض بالحياة ، وتبع ذلك كتاب "جينويدز" الذي تم استخدامه أو تأثر به صانعي الأفلام بما في ذلك جورج لوكاس وغيره. المبدعين. لم يعتبر سوراياما هذه الروبوتات العضوية جزءًا حقيقيًا من الطبيعة ولكنها دائمًا نتاج غير طبيعي للعقل البشري ، وهو خيال موجود في العقل حتى عندما يتحقق في الشكل الفعلي.

تستخدم العديد من الأعمال الذكاء الاصطناعي لإجبارنا على مواجهة السؤال الأساسي حول ما الذي يجعلنا بشرًا ، وتبين لنا كائنات مصطنعة لديها القدرة على الشعور ، وبالتالي المعاناة. يظهر هذا في فيلم RUR لـ Karel Čapek ، وأفلام الذكاء الاصطناعي AI و Ex Machina ، بالإضافة إلى رواية Do Androids Dream of Electric Sheep؟ بواسطة فيليب ك . ديك . يعتبر ديك فكرة أن فهمنا للذاتية البشرية قد تغير من خلال التكنولوجيا التي تم إنشاؤها باستخدام الذكاء الاصطناعي. [196]

أنظر أيضا

ملاحظات توضيحية

  1. ^ تعريف الذكاء الاصطناعي على أنه دراسة الوكلاء الأذكياء ، مأخوذ من كتب الذكاء الاصطناعي الرائدة.
    • Poole، Mackworth & Goebel (1998 ، ص 1 ) ، الذي يوفر النسخة المستخدمة في هذه المقالة. يستخدم هؤلاء المؤلفون مصطلح "الذكاء الحسابي" كمرادف للذكاء الاصطناعي.
    • راسل ونورفيج (2003 ، ص 55) (اللذان يفضلان مصطلح "الوكيل العقلاني") ويكتبان "وجهة نظر الوكيل بالكامل مقبولة الآن على نطاق واسع في هذا المجال".
    • نيلسون (1998)
    • ليغ وهوتر (2007)
  2. ^ ستيوارت راسيل و بيتر نورفيغ تميز هذا التعريف بأنه "التفكير إنسانيا" ورفضه لصالح "يتصرف بعقلانية". [1]
  3. ^ أ ب الذكاء البيولوجي مقابل الذكاء بشكل عام:
    • راسل ونورفيج 2003 ، ص 2 - 3 ، اللذان قاما بالتشابه مع هندسة الطيران .
    • ماكوردوك 2004 ، ص 100-101 ، الذي كتب أن هناك "فرعين رئيسيين للذكاء الاصطناعي: أحدهما يهدف إلى إنتاج سلوك ذكي بغض النظر عن كيفية إنجازه ، والآخر يهدف إلى نمذجة العمليات الذكية الموجودة في الطبيعة ، وخاصة البشرية منها . "
    • مكارثي مؤسس منظمة العفو الدولية غير مبال بالنماذج البيولوجية. ونقلت كولاتا عن مكارثي قوله: "هذا هو الذكاء الاصطناعي ، لذلك لا نهتم إذا كان حقيقيًا من الناحية النفسية". [124] كرر مكارثي موقفه في عام 2006 في مؤتمر AI @ 50 حيث قال "الذكاء الاصطناعي ليس بحكم تعريفه محاكاة للذكاء البشري". [125]
  4. ^ a b تستند قائمة السمات الذكية هذه إلى الموضوعات التي تغطيها الكتب المدرسية الرئيسية للذكاء الاصطناعي ، بما في ذلك: Russell & Norvig (2003) و Luger & Stubblefield (2004) و Poole و Mackworth & Goebel (1998) و Nilsson (1998)
  5. ^ انظر اقتراح دارتموث تحت الفلسفة ، أدناه.
  6. ^ كتب دانيال كريفير "المؤتمر معروف بشكل عام بأنه تاريخ الميلاد الرسمي للعلم الجديد". [23] رسل و Norvifg الاتصال بالمؤتمر "ولادة الذكاء الاصطناعي". [24]
  7. ^ رسل و نورفيج كتب "على مدى السنوات ال 20 المقبلة سوف يهيمن هذا المجال من خلال هؤلاء الناس وطلابها". [24]
  8. ^ رسل و نورفيج كتب "كان مدهشا كلما قام الكمبيوتر نوع أي شيء من smartish". [27]
  9. ^ البرامج الموصوفة هيبرنامج الداما الخاصبـ Arthur Samuel لـ IBM 701 و Daniel Bobrow 's STUDENT و Newell و Simon 's Logic Theorist و Terry Winograd 's SHRDLU .
  10. ^ تشمل مبادرات التمويل: مشروع الجيل الخامس (اليابان) ، Alvey (المملكة المتحدة) ، MCC (الولايات المتحدة) ، و SCI (الولايات المتحدة)
  11. ^ تجسد نهج AI تشمل نوفيل AI ، [38] التنموي AI ، [39] تقع منظمة العفو الدولية، منظمة العفو الدولية على أساس السلوك فضلا عن غيرهم. حركة مماثلة في العلوم المعرفية كانت أطروحة العقل المجسدة .
  12. ^ رسل و نورفيج وصف التحرك نحو الطرق الرسمية باسم "انتصار neats " [41]
  13. ^ كتب كلارك: "بعد نصف عقد من الاختراقات الهادئة في مجال الذكاء الاصطناعي ، كان عام 2015 عامًا بارزًا. أصبحت أجهزة الكمبيوتر أكثر ذكاءً وتتعلم بشكل أسرع من أي وقت مضى." [10]
  14. ^ ناقش آلان تورينج مركزية التعلم في وقت مبكر من عام 1950 ، في ورقته الكلاسيكية " الحوسبة الآلية والذكاء ". [75] في عام 1956 ، في مؤتمر دارتموث الصيفي الأصلي للذكاء الاصطناعي ،كتب راي سولومونوف تقريرًا عن التعلم الآلي الاحتمالي غير الخاضع للرقابة: "آلة الاستدلال الاستقرائي". [76]
  15. ^ هذا شكل من أشكال تعريف Tom Mitchell المقتبس على نطاق واسع للتعلم الآلي: "تم تعيين برنامج كمبيوتر للتعلم من تجربة E فيما يتعلق ببعض المهام T وبعض مقاييس الأداء P إذاتحسنأدائها على T كما تم قياسه بواسطة P من ذوي الخبرة ه . "
  16. ^ كتب دانيال كريفير أن "الوقت قد أثبت دقة وفهم بعض تعليقات درايفوس. لو أنه صاغها بشكل أقل عدوانية ، فإن الإجراءات البناءة التي اقترحوها ربما اتخذت قبل ذلك بكثير." [120] [121]
  17. ^ هذا الإصدار مأخوذ من Searle (1999) ، وهو مقتبس أيضًا في Dennett 1991 ، p. 435. كانت الصيغة الأصلية لسيرل هي "الكمبيوتر المبرمج بشكل مناسب هو في الحقيقة عقل ، بمعنى أن أجهزة الكمبيوتر التي تعطى البرامج المناسبة يمكن أن يقال عنها حرفيًا أنها تفهم ولديها حالات معرفية أخرى". [130] تم تعريف الذكاء الاصطناعي القوي بالمثل من قبل راسل ونورفيج (2003 ، ص 947): "التأكيد على أن الآلات يمكن أن تتصرف بذكاء (أو ربما تتصرف كما لو كانت ذكية) يسمى فرضية" الذكاء الاصطناعي الضعيف " من قبل الفلاسفة ، والتأكيد على أن الآلات التي تفعل ذلك هي في الواقع تفكر (على عكس محاكاة التفكير) تسمى فرضية "الذكاء الاصطناعي القوي".
  18. ^ في أوائل السبعينيات من القرن الماضي ،قدم كينيث كولبي نسخة من ELIZA لـ Weizenbaum المعروفة باسم DOCTOR والتي روج لها كأداة علاجية جادة. [173]

مراجع

  1. ^ راسل ونورفيج 2009 ، ص. 2.
  2. ^ جوجل 2016 .
  3. ^ مكوردوك 2004 ، ص. 204.
  4. ^ أشوك 83 2019 .
  5. ^ شانك 1991 ، ص. 38.
  6. ^ كريفير 1993 ، ص. 109.
  7. ^ أ ب ج ماكوردوك (2004 ، ص 426-441) ؛ Crevier (1993 ، الصفحات 161–162،197–203 ، 211 ، 240) ؛ راسل ونورفيج (2003 ، ص 24) ؛ المجلس النرويجي للاجئين (1999 ، ص 210 - 211) ؛ نيوكويست (1994 ، ص 235 - 248)
  8. ^ أ ب كريفير (1993 ، ص 115 - 117) ؛ راسل ونورفيج (2003 ، ص 22) ؛ المجلس النرويجي للاجئين (1999 ، ص 212 - 213) ؛ هاو (1994) ؛ نيوكويست (1994 ، ص 189 - 201)
  9. ^ أ ب ماكوردوك (2004 ، ص 430-435) ؛ كريفير (1993 ، ص 209 - 210) ؛ المجلس النرويجي للاجئين (1999 ، ص 214 - 216) ؛ نيوكويست (1994 ، ص 301 - 318)
  10. ^ أ ب ج د كلارك 2015 ب .
  11. ^ أ ب راسل ونورفيج (2003 ، ص .28) ؛ كورزويل (2005 ، ص 265) ؛ المجلس النرويجي للاجئين (1999 ، ص 216 - 222) ؛ ^ نيوكويست 1994 ، ص 189 - 201
  12. ^ أ ب ج تمت مناقشة الذكاء العام (الذكاء الاصطناعي القوي ) في المقدمات الشعبية للذكاء الاصطناعي: * كورزويل 1999 و كورزويل 2005
  13. ^ نيوكويست 1994 ، ص 45-53.
  14. ^ سبادافورا 2016 .
  15. ^ لومباردو وبوم ونيرز 2020 .
  16. ^ أ ب ماكوردوك (2004 ، ص.4-5) ؛ راسل ونورفيج (2003 ، ص 939)
  17. ^ مكوردوك 2004 ، ص 17-25.
  18. ^ مكوردوك 2004 ، ص 340 - 400.
  19. ^ بيرلينسكي 2000 .
  20. ^ مكوردوك (2004 ، ص 51-107) ؛ Crevier 1993 ، ص 27 - 32 ؛ راسل ونورفيج 2003 ، ص 15 ، 940 ؛ مورافيك 1988 ، ص. 3
  21. ^ راسل ونورفيج 2009 ، ص. 16.
  22. ^ هاوجلاند 1985 ، ص 112 - 117.
  23. ^ كريفير 1993 ، ص 47-49.
  24. ^ أ ب راسل ونورفيج 2003 ، ص. 17.
  25. ^ مكوردوك (2004 ، ص 111 - 136) ؛ إن آر سي & (1999 ، ص 200 - 201)
  26. ^ مكوردوك 2004 ، ص 129 - 130.
  27. ^ راسل ونورفيج 2003 ، ص. 18.
  28. ^ ماكوردوك (2004 ، ص 243-252) ؛ كريفير (1993 ، ص 52-107)} ؛ مورافيك (1988 ، ص 9) ؛ راسل ونورفيج (2003 ، ص 18 - 21)}
  29. ^ مكوردوك (2004 ، ص 131) ؛ كريفير (1993 ، ص 51 ، 64-65) ؛ إن آر سي (1999 ، ص 204 - 205)
  30. ^ هاو 1994 .
  31. ^ نيوكويست 1994 ، ص 86 - 86.
  32. ^ سيمون 1965 ، ص. 96 اقتبس في Crevier 1993 ، ص. 109
  33. ^ مينسكي 1967 ، ص. 2 اقتبس في Crevier 1993 ، ص. 109
  34. ^ لايتيل 1973 .
  35. ^ ACM (1998 ، I.2.1) ؛ راسل ونورفيج (2003 ، ص 22-24) ؛ لوغر وستلفيلد (2004 ، ص 227 - 331) ؛ Nilsson (1998 ، chpt. 17.4)؛ ماكوردوك (2004 ، ص 327-335 ، 434-435) ؛ كريفير (1993 ، الصفحات 145-62 ، 197-203) ؛ نيوكويست (1994 ، ص 155 - 183)
  36. ^ نيلسون 1998 ، ص. 7 ، الذي يستخدم مصطلح "شبه رمزي".
  37. ^ ماكوردوك (2004 ، ص 454-462) ؛ مورافيك (1988) ؛ بروكس (1990)
  38. ^ بروكس 1990 .
  39. ^ ونغ وآخرون. (2001) ؛ Lungarella et al. (2003) ؛ أسادا وآخرون (2009) ؛ أودير (2010)
  40. ^ كريفير (1993 ، ص 214 - 215) ؛ راسل ونورفيج (2003 ، ص 25)
  41. ^ راسل ونورفيج 2003 ، ص. 25.
  42. ^ راسل ونورفيج 2003 ، ص.25 - 26 ؛ مكوردوك (2004 ، ص 486-487)
  43. ^ ماكينزي 2018 .
  44. ^ MIT Sloan Management Review (2018) ؛ لوريكا (2017)
  45. ^ أ ب ج بيناتشين ، سي ؛ جورتزل ، ب. (2007). "مناهج معاصرة للذكاء العام الاصطناعي". الذكاء العام الاصطناعي . التقنيات المعرفية. برلين ، هايدلبرغ: سبرينغر. دوى : 10.1007 / 978-3-540-68677-4_1 . رقم ISBN 978-3-540-23733-4.
  46. ^ أ ب ج د إي روبرتس ، جاكوب (2016). "آلات التفكير: البحث عن الذكاء الاصطناعي" . التقطير . المجلد. 2 لا. 2. ص 14 - 23. مؤرشفة من الأصلي في 19 أغسطس 2018 . تم الاسترجاع 20 مارس 2018 .
  47. ^ حل المشكلات وحل الألغاز ولعب الألعاب والاستنتاج: * Russell & Norvig 2003 ، chpt. 3–9، * Poole، Mackworth & Goebel 1998 ، chpt. 2،3،7،9 ، * لوغر وستلفيلد 2004 ، الفصل. 3 ، 4 ، 6 ، 8 ، * نيلسون 1998 ، الفصل. 7-12
  48. ^ منطق غير مؤكد: * راسل ونورفيج 2003 ، ص 452-644 ، * بول ، ماكوورث وجوبيل 1998 ، ص 345-395 ، * لوغر وستلفيلد 2004 ، ص 333-381 ، * نيلسون 1998 ، الفصل. 19
  49. ^ العناد والكفاءة و انفجار اندماجي : * راسيل ونورفيج 2003 ، ص 9، 21-22.
  50. ^ الدليل النفسي على التفكير شبه الرمزي: *أظهر Wason & Shapiro (1966) أن أداء الناس سيئ فيما يتعلق بالمشكلات المجردة تمامًا ، ولكن إذا أعيد ذكر المشكلة للسماح باستخدام الذكاء الاجتماعي الحدسي، فإن الأداء يتحسن بشكل كبير. (انظر مهمة اختيار واسون ) *أظهر كانيمان وسلوفيتش وتفيرسكي (1982) أن الناس سيئون في المشكلات الأولية التي تنطوي على تفكير غير مؤكد. (انظر قائمة التحيزات المعرفية لعدة أمثلة). * اكوف ونونيز (2000) وقد جادل مثير للجدل أنه حتى مهاراتنا في الرياضيات تعتمد على المعرفة والمهارات التي تأتي من "الجسم"، أي الحسية ومهارات الإدراك الحسي. (ارىمن أين تأتي الرياضيات )
  51. ^ تمثيل المعرفة : * ACM 1998 ، I.2.4، * Russell & Norvig 2003 ، pp.320–363، * Poole، Mackworth & Goebel 1998 ، pp.23-46، 69-81، 169–196، 235–277 ، 281–298، 319–345، * Luger & Stubblefield 2004 ، pp.227–243، * Nilsson 1998 ، chpt. 18
  52. ^ هندسة المعرفة : * Russell & Norvig 2003 ، pp.260–266، * Poole، Mackworth & Goebel 1998 ، pp.199–233، * Nilsson 1998 ، chpt. 17.1-17.4
  53. ^ تمثيل الفئات والعلاقات: الشبكات الدلالية ، المنطق الوصفى ، الميراث (بما في ذلك الأطر و البرامج النصية ): * راسيل ونورفيج 2003 ، ص 349-354، * بول، Mackworth وغوبل 1998 ، ص 174-177، * لوغر وستبليفيلد 2004 ، ص 248-258 ، * نيلسون 1998 ، الفصل. 18.3
  54. ^ تمثيل الأحداث والوقت: حساب التفاضل والتكامل الحالة ، حساب الحدث ، حساب التفاضل والتكامل بطلاقة (بما في ذلك حل مشكلة إطار ): * راسيل ونورفيج 2003 ، ص 328-341، * بول، Mackworth وغوبل 1998 ، ص 281-298، * نيلسون 1998 ، الفصل. 18.2
  55. ^ حساب السببية : * Poole ، Mackworth & Goebel 1998 ، ص 335 - 337
  56. ^ تمثيل المعرفة حول المعرفة: حساب التفاضل والتكامل ، والمنطق النموذجي : * Russell & Norvig 2003 ، الصفحات 341-344 ، * Poole ، Mackworth & Goebel 1998 ، الصفحات 275-277
  57. ^ سيكوس ، ليزلي ف. (يونيو 2017). وصف المنطق في استدلال الوسائط المتعددة . تشام: سبرينغر. دوى : 10.1007 / 978-3-319-54066-5 . رقم ISBN 978-3-319-54066-5. S2CID  3180114 . مؤرشفة من الأصلي في 29 أغسطس 2017.
  58. ^ علم الوجود : * راسل ونورفيج 2003 ، ص 320 - 328
  59. ^ سموليار ، ستيفن دبليو. تشانغ ، هونغ جيانغ (1994). "فهرسة واسترجاع الفيديو على أساس المحتوى". الوسائط المتعددة IEEE . 1 (2): 62-72. دوى : 10.1109 / 93.311653 . S2CID 32710913 . 
  60. ^ نيومان ، بيرند ؛ مولر ، رالف (يناير 2008). "تفسير في المشهد مع منطق الوصف". حوسبة الصور والرؤية . 26 (1): 82-101. دوى : 10.1016 / j.imavis.2007.08.013 .
  61. ^ كوبرمان ، جي. ريتشلي ، RM ؛ بيلي ، تي سي (1 يوليو 2006). "استخدام قواعد المعرفة التجارية لدعم القرار السريري: الفرص والعقبات والتوصيات" . مجلة الجمعية الأمريكية للمعلوماتية الطبية . 13 (4): 369-371. دوى : 10.1197 / jamia.M2055 . PMC 1513681 . بميد 16622160 .  
  62. ^ McGarry ، Ken (1 كانون الأول 2005). "مسح لمقاييس الاهتمام لاكتشاف المعرفة". مراجعة هندسة المعرفة . 20 (1): 39-61. دوى : 10.1017 / S0269888905000408 . S2CID 14987656 . 
  63. ^ برتيني ، م ؛ ديل بيمبو ، أ ؛ تورني ، سي (2006). "التعليقات التوضيحية التلقائية والاسترجاع الدلالي لتسلسلات الفيديو باستخدام أنظمة الوسائط المتعددة". MM '06 وقائع المؤتمر الدولي الرابع عشر للـ ACM حول الوسائط المتعددة . المؤتمر الدولي الرابع عشر للـ ACM للوسائط المتعددة. سانتا باربرا: إيه سي إم. ص 679 - 682.
  64. ^ مشكلة التأهيل : * مكارثي وهايز 1969 * راسل ونورفيج 2003 [ الصفحة مطلوبة ] بينما كان مكارثي مهتمًا بشكل أساسي بالقضايا في التمثيل المنطقي للإجراءات ،يطبق راسل ونورفيج 2003 المصطلح على القضية الأكثر عمومية من التفكير الافتراضي في النطاق الواسع شبكة من الافتراضات الكامنة وراء كل معرفتنا المنطقية.
  65. ^ المنطق الافتراضي والمنطق الافتراضي ، والمنطق غير الرتيب ، والتقييد ، وافتراض العالم المغلق ، والاختطاف (يضعبول وآخرون الاختطاف تحت عنوان "التفكير الافتراضي" . يضعلوغر وآخرون هذا ضمن "التفكير غير المؤكد"): * راسل ونورفيج 2003 ، الصفحات 354-360 ، * Poole ، Mackworth & Goebel 1998 ، الصفحات 248-256 ، 323-335 ، * Luger & Stubblefield 2004 ، الصفحات 335-363 ، * Nilsson 1998 ، ~ 18.3.3
  66. ^ اتساع نطاق المعرفة المنطقية: * راسل ونورفيج 2003 ، ص. 21 ، * Crevier 1993 ، ص 113-114 ، * مورافيك 1988 ، ص. 13 ، * لينات وجوها 1989 (مقدمة)
  67. ^ دريفوس ودريفوس 1986 .
  68. ^ جلادويل 2005 .
  69. ^ المعرفة الخبيرةكحدس متجسد : * درايفوس ودريفوس 1986 ( هوبير دريفوس هو فيلسوف وناقد للذكاء الاصطناعي وكان من بين أول من جادل بأن المعرفة البشرية الأكثر فائدة تم ترميزها بشكل شبه رمزي. انظر نقد دريفوس للذكاء الاصطناعي ) * جلادويل 2005 (Gladwell's Blink هي مقدمة شائعة للاستدلال والمعرفة شبه الرمزي.) * Hawkins & Blakeslee 2005 (يجادل هوكينز بأن المعرفة شبه الرمزية يجب أن تكون المحور الأساسي لأبحاث الذكاء الاصطناعي.)
  70. ^ التخطيط : * ACM 1998 ، ~ I.2.8 ، * Russell & Norvig 2003 ، pp.375-459 ، * Poole ، Mackworth & Goebel 1998 ، pp.281–316 ، * Luger & Stubblefield 2004 ، pp.314–329 ، * نيلسون 1998 ، الفصل. 10.1-2 ، 22
  71. ^ نظرية قيمة المعلومات : * راسل ونورفيج 2003 ، ص 600-604
  72. ^ التخطيط الكلاسيكي: * راسل ونورفيج 2003 ، ص 375-430 ، * Poole ، Mackworth & Goebel 1998 ، ص 281-315 ، * Luger & Stubblefield 2004 ، pp.314–329 ، * Nilsson 1998 ، chpt. 10.1-2 ، 22
  73. ^ Planning and acting in non-deterministic domains: conditional planning, execution monitoring, replanning and continuous planning: * Russell & Norvig 2003, pp. 430–449
  74. ^ Multi-agent planning and emergent behavior: * Russell & Norvig 2003, pp. 449–455
  75. ^ Turing 1950.
  76. ^ Solomonoff 1956.
  77. ^ a b Learning: * ACM 1998, I.2.6, * Russell & Norvig 2003, pp. 649–788, * Poole, Mackworth & Goebel 1998, pp. 397–438, * Luger & Stubblefield 2004, pp. 385–542, * Nilsson 1998, chpt. 3.3, 10.3, 17.5, 20
  78. ^ Jordan, M. I.; Mitchell, T. M. (16 July 2015). "Machine learning: Trends, perspectives, and prospects". Science. 349 (6245): 255–260. Bibcode:2015Sci...349..255J. doi:10.1126/science.aaa8415. PMID 26185243. S2CID 677218.
  79. ^ Reinforcement learning: * Russell & Norvig 2003, pp. 763–788 * Luger & Stubblefield 2004, pp. 442–449
  80. ^ Natural language processing: * ACM 1998, I.2.7 * Russell & Norvig 2003, pp. 790–831 * Poole, Mackworth & Goebel 1998, pp. 91–104 * Luger & Stubblefield 2004, pp. 591–632
  81. ^ Applications of natural language processing, including information retrieval (i.e. text mining) and machine translation: * Russell & Norvig 2003, pp. 840–857, * Luger & Stubblefield 2004, pp. 623–630
  82. ^ Cambria, Erik; White, Bebo (May 2014). "Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]". IEEE Computational Intelligence Magazine. 9 (2): 48–57. doi:10.1109/MCI.2014.2307227. S2CID 206451986.
  83. ^ Vincent, James (7 November 2019). "OpenAI has published the text-generating AI it said was too dangerous to share". The Verge. Archived from the original on 11 June 2020. Retrieved 11 June 2020.
  84. ^ Machine perception: * Russell & Norvig 2003, pp. 537–581, 863–898 * Nilsson 1998, ~chpt. 6
  85. ^ Speech recognition: * ACM 1998, ~I.2.7 * Russell & Norvig 2003, pp. 568–578
  86. ^ Object recognition: * Russell & Norvig 2003, pp. 885–892
  87. ^ Computer vision: * ACM 1998, I.2.10 * Russell & Norvig 2003, pp. 863–898 * Nilsson 1998, chpt. 6
  88. ^ Robotics: * ACM 1998, I.2.9, * Russell & Norvig 2003, pp. 901–942, * Poole, Mackworth & Goebel 1998, pp. 443–460
  89. ^ Moving and configuration space: * Russell & Norvig 2003, pp. 916–932
  90. ^ Tecuci 2012.
  91. ^ Robotic mapping (localization, etc): * Russell & Norvig 2003, pp. 908–915
  92. ^ Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (December 2016). "Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age". IEEE Transactions on Robotics. 32 (6): 1309–1332. arXiv:1606.05830. Bibcode:2016arXiv160605830C. doi:10.1109/TRO.2016.2624754. S2CID 2596787.
  93. ^ Moravec 1988, p. 15.
  94. ^ Chan, Szu Ping (15 November 2015). "This is what will happen when robots take over the world". Archived from the original on 24 April 2018. Retrieved 23 April 2018.
  95. ^ "IKEA furniture and the limits of AI". The Economist. 2018. Archived from the original on 24 April 2018. Retrieved 24 April 2018.
  96. ^ "Kismet". MIT Artificial Intelligence Laboratory, Humanoid Robotics Group. Archived from the original on 17 October 2014. Retrieved 25 October 2014.
  97. ^ Thro 1993.
  98. ^ Edelson 1991.
  99. ^ Tao & Tan 2005.
  100. ^ Emotion and affective computing: * Minsky 2006
  101. ^ Waddell, Kaveh (2018). "Chatbots Have Entered the Uncanny Valley". The Atlantic. Archived from the original on 24 April 2018. Retrieved 24 April 2018.
  102. ^ Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). "A review of affective computing: From unimodal analysis to multimodal fusion". Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003. hdl:1893/25490.
  103. ^ a b Russell & Norvig 2009, p. 1.
  104. ^ a b White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. p. 1. Archived (PDF) from the original on 20 February 2020. Retrieved 20 February 2020.
  105. ^ "AI set to exceed human brain power". CNN. 9 August 2006. Archived from the original on 19 February 2008.
  106. ^ Using AI to predict flight delays Archived 20 November 2018 at the Wayback Machine, Ishti.org.
  107. ^ N. Aletras; D. Tsarapatsanis; D. Preotiuc-Pietro; V. Lampos (2016). "Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective". PeerJ Computer Science. 2: e93. doi:10.7717/peerj-cs.93.
  108. ^ "The Economist Explains: Why firms are piling into artificial intelligence". The Economist. 31 March 2016. Archived from the original on 8 May 2016. Retrieved 19 May 2016.
  109. ^ Lohr, Steve (28 February 2016). "The Promise of Artificial Intelligence Unfolds in Small Steps". The New York Times. Archived from the original on 29 February 2016. Retrieved 29 February 2016.
  110. ^ Frangoul, Anmar (14 June 2019). "A Californian business is using A.I. to change the way we think about energy storage". CNBC. Archived from the original on 25 July 2020. Retrieved 5 November 2019.
  111. ^ Wakefield, Jane (15 June 2016). "Social media 'outstrips TV' as news source for young people". BBC News. Archived from the original on 24 June 2016.
  112. ^ Smith, Mark (22 July 2016). "So you think you chose to read this article?". BBC News. Archived from the original on 25 July 2016.
  113. ^ Brown, Eileen. "Half of Americans do not believe deepfake news could target them online". ZDNet. Archived from the original on 6 November 2019. Retrieved 3 December 2019.
  114. ^ Turing's original publication of the Turing test: Historical influence and philosophical implications:
  115. ^ Turing, Alan (1948), "Machine Intelligence", in Copeland, B. Jack (ed.), The Essential Turing: The ideas that gave birth to the computer age, Oxford: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
  116. ^ Dartmouth proposal: Historical significance:
  117. ^ Physical symbol system hypothesis: Historical significance:
  118. ^ Russell & Norvig 2003, pp. 9,21–22.
  119. ^ Dreyfus arguments: Historical significance and philosophical implications:
  120. ^ Crevier 1993, p. 125.
  121. ^ McCorduck 2004, p. 236.
  122. ^ a b Langley 2011.
  123. ^ Katz 2012.
  124. ^ Kolata 1982.
  125. ^ Maker 2006.
  126. ^ Neats vs. scruffies: * McCorduck 2004, pp. 421–424, 486–489 * Crevier 1993, p. 168 * Nilsson 1983, pp. 10–11
  127. ^ Russell & Norvig 2003, p. 947.
  128. ^ Chalmers, David (1995). "Facing up to the problem of consciousness". Journal of Consciousness Studies. 2 (3): 200–219. Archived from the original on 8 March 2005. Retrieved 11 October 2018. See also this link Archived 8 April 2011 at the Wayback Machine
  129. ^ Horst, Steven, (2005) "The Computational Theory of Mind" Archived 11 September 2018 at the Wayback Machine in The Stanford Encyclopedia of Philosophy
  130. ^ Searle 1980, p. 1.
  131. ^ Searle's Chinese room argument: Discussion:
  132. ^ Robot rights: * Russell & Norvig 2003, p. 964 Prematurity of: * Henderson 2007 In fiction: * McCorduck (2004, pp. 190–25) discusses Frankenstein and identifies the key ethical issues as scientific hubris and the suffering of the monster, i.e. robot rights.
  133. ^ "Robots could demand legal rights". BBC News. 21 December 2006. Archived from the original on 15 October 2019. Retrieved 3 February 2011.
  134. ^ Evans, Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Teknokultura. 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072.
  135. ^ maschafilm. "Content: Plug & Pray Film – Artificial Intelligence – Robots -". plugandpray-film.de. Archived from the original on 12 February 2016.
  136. ^ Omohundro, Steve (2008). The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA.
  137. ^ a b c Technological singularity: * Vinge 1993 * Kurzweil 2005 * Russell & Norvig 2003, p. 963
  138. ^ Transhumanism: * Moravec 1988 * Kurzweil 2005 * Russell & Norvig 2003, p. 963
  139. ^ AI as evolution: * Edward Fredkin is quoted in McCorduck (2004, p. 401). * Butler 1863 * Dyson 1998
  140. ^ "Robots and Artificial Intelligence". www.igmchicago.org. Archived from the original on 1 May 2019. Retrieved 3 July 2019.
  141. ^ "Sizing the prize: PwC's Global AI Study – Exploiting the AI Revolution" (PDF). Archived (PDF) from the original on 18 November 2020. Retrieved 11 November 2020.
  142. ^ E McGaughey, 'Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy' (2018) SSRN, part 2(3) Archived 24 May 2018 at the Wayback Machine
  143. ^ "Automation and anxiety". The Economist. 9 May 2015. Archived from the original on 12 January 2018. Retrieved 13 January 2018.
  144. ^ Lohr, Steve (2017). "Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says". The New York Times. Archived from the original on 14 January 2018. Retrieved 13 January 2018.
  145. ^ Frey, Carl Benedikt; Osborne, Michael A (1 January 2017). "The future of employment: How susceptible are jobs to computerisation?". Technological Forecasting and Social Change. 114: 254–280. CiteSeerX 10.1.1.395.416. doi:10.1016/j.techfore.2016.08.019. ISSN 0040-1625.
  146. ^ Arntz, Melanie, Terry Gregory, and Ulrich Zierahn. "The risk of automation for jobs in OECD countries: A comparative analysis." OECD Social, Employment, and Migration Working Papers 189 (2016). p. 33.
  147. ^ Mahdawi, Arwa (26 June 2017). "What jobs will still be around in 20 years? Read this to prepare your future". The Guardian. Archived from the original on 14 January 2018. Retrieved 13 January 2018.
  148. ^ Ford, Martin; Colvin, Geoff (6 September 2015). "Will robots create more jobs than they destroy?". The Guardian. Archived from the original on 16 June 2018. Retrieved 13 January 2018.
  149. ^ Simon, Matt (1 April 2019). "Andrew Yang's Presidential Bid Is So Very 21st Century". Wired. Archived from the original on 24 June 2019. Retrieved 2 May 2019 – via www.wired.com.
  150. ^ "Five experts share what scares them the most about AI". 5 September 2018. Archived from the original on 8 December 2019. Retrieved 8 December 2019.
  151. ^ Russel, Stuart., Daniel Dewey, and Max Tegmark. Research Priorities for Robust and Beneficial Artificial Intelligence. AI Magazine 36:4 (2015). 8 December 2016.
  152. ^ "Commentary: Bad news. Artificial intelligence is biased". CNA. 12 January 2019. Archived from the original on 12 January 2019. Retrieved 19 June 2020.
  153. ^ Jeff Larson, Julia Angwin (23 May 2016). "How We Analyzed the COMPAS Recidivism Algorithm". ProPublica. Archived from the original on 29 April 2019. Retrieved 19 June 2020.
  154. ^ Rawlinson, Kevin (29 January 2015). "Microsoft's Bill Gates insists AI is a threat". BBC News. Archived from the original on 29 January 2015. Retrieved 30 January 2015.
  155. ^ Holley, Peter (28 January 2015). "Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'". The Washington Post. ISSN 0190-8286. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  156. ^ Gibbs, Samuel (27 October 2014). "Elon Musk: artificial intelligence is our biggest existential threat". The Guardian. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  157. ^ Churm, Philip Andrew (14 May 2019). "Yuval Noah Harari talks politics, technology and migration". euronews. Archived from the original on 14 May 2019. Retrieved 15 November 2020.
  158. ^ Cellan-Jones, Rory (2 December 2014). "Stephen Hawking warns artificial intelligence could end mankind". BBC News. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  159. ^ Bostrom, Nick (2015). "What happens when our computers get smarter than we are?". TED (conference). Archived from the original on 25 July 2020. Retrieved 30 January 2020.
  160. ^ a b Russell, Stuart (8 October 2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322.
  161. ^ Post, Washington. "Tech titans like Elon Musk are spending $1 billion to save you from terminators". Archived from the original on 7 June 2016.
  162. ^ Müller, Vincent C.; Bostrom, Nick (2014). "Future Progress in Artificial Intelligence: A Poll Among Experts" (PDF). AI Matters. 1 (1): 9–11. doi:10.1145/2639475.2639478. S2CID 8510016. Archived (PDF) from the original on 15 January 2016.
  163. ^ "Oracle CEO Mark Hurd sees no reason to fear ERP AI". SearchERP. Archived from the original on 6 May 2019. Retrieved 6 May 2019.
  164. ^ "Mark Zuckerberg responds to Elon Musk's paranoia about AI: 'AI is going to... help keep our communities safe.'". Business Insider. 25 May 2018. Archived from the original on 6 May 2019. Retrieved 6 May 2019.
  165. ^ "The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers". Tech Insider. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  166. ^ Clark 2015a.
  167. ^ "Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research". Fast Company. 15 January 2015. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  168. ^ "Is artificial intelligence really an existential threat to humanity?". Bulletin of the Atomic Scientists. 9 August 2015. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  169. ^ "The case against killer robots, from a guy actually working on artificial intelligence". Fusion.net. Archived from the original on 4 February 2016. Retrieved 31 January 2016.
  170. ^ "Will artificial intelligence destroy humanity? Here are 5 reasons not to worry". Vox. 22 August 2014. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  171. ^ Iphofen, Ron; Kritikos, Mihalis (3 January 2019). "Regulating artificial intelligence and robotics: ethics by design in a digital society". Contemporary Social Science. 16 (2): 170–184. doi:10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502.
  172. ^ "Ethical AI Learns Human Rights Framework". Voice of America. Archived from the original on 11 November 2019. Retrieved 10 November 2019.
  173. ^ Crevier 1993, pp. 132–144.
  174. ^ Joseph Weizenbaum's critique of AI: * Weizenbaum 1976 * Crevier 1993, pp. 132–144 * McCorduck 2004, pp. 356–373 * Russell & Norvig 2003, p. 961 Weizenbaum (the AI researcher who developed the first chatterbot program, ELIZA) argued in 1976 that the misuse of artificial intelligence has the potential to devalue human life.
  175. ^ Wallach, Wendell (2010). Moral Machines. Oxford University Press.
  176. ^ Wallach 2010, pp. 37–54.
  177. ^ Wallach 2010, pp. 55–73.
  178. ^ Wallach 2010, "Introduction".
  179. ^ a b Michael Anderson and Susan Leigh Anderson (2011), Machine Ethics, Cambridge University Press.
  180. ^ a b "Machine Ethics". aaai.org. Archived from the original on 29 November 2014.
  181. ^ Rubin, Charles (Spring 2003). "Artificial Intelligence and Human Nature". The New Atlantis. 1: 88–100. Archived from the original on 11 June 2012.
  182. ^ Brooks, Rodney (10 November 2014). "artificial intelligence is a tool, not a threat". Archived from the original on 12 November 2014.
  183. ^ "Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence". Observer. 19 August 2015. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  184. ^ Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF). Paris: OECD Observatory of Public Sector Innovation. Archived (PDF) from the original on 20 December 2019. Retrieved 9 August 2020.
  185. ^ Barfield, Woodrow; Pagallo, Ugo (2018). Research handbook on the law of artificial intelligence. Cheltenham, UK. ISBN 978-1-78643-904-8. OCLC 1039480085.
  186. ^ Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. Regulation of artificial intelligence in selected jurisdictions. LCCN 2019668143. OCLC 1110727808.
  187. ^ Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (24 July 2018). "Artificial Intelligence and the Public Sector – Applications and Challenges". International Journal of Public Administration. 42 (7): 596–615. doi:10.1080/01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602. Archived from the original on 18 August 2020. Retrieved 22 August 2020.
  188. ^ Buiten, Miriam C (2019). "Towards Intelligent Regulation of Artificial Intelligence". European Journal of Risk Regulation. 10 (1): 41–59. doi:10.1017/err.2019.8. ISSN 1867-299X.
  189. ^ Sotala, Kaj; Yampolskiy, Roman V (19 December 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. 90 (1): 018001. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
  190. ^ "Does This Change Everything? Coronavirus and your private data". European Investment Bank. Archived from the original on 7 June 2021. Retrieved 7 June 2021.
  191. ^ "White Paper on Artificial Intelligence – a European approach to excellence and trust | Shaping Europe's digital future". digital-strategy.ec.europa.eu. Retrieved 7 June 2021.
  192. ^ "What's Ahead for a Cooperative Regulatory Agenda on Artificial Intelligence?". www.csis.org. Archived from the original on 7 June 2021. Retrieved 7 June 2021.
  193. ^ Buttazzo, G. (July 2001). "Artificial consciousness: Utopia or real possibility?". Computer. 34 (7): 24–30. doi:10.1109/2.933500.
  194. ^ Anderson, Susan Leigh. "Asimov's "three laws of robotics" and machine metaethics." AI & Society 22.4 (2008): 477–493.
  195. ^ McCauley, Lee (2007). "AI armageddon and the three laws of robotics". Ethics and Information Technology. 9 (2): 153–164. CiteSeerX 10.1.1.85.8904. doi:10.1007/s10676-007-9138-2. S2CID 37272949.
  196. ^ Galvan, Jill (1 January 1997). "Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"". Science Fiction Studies. 24 (3): 413–429. JSTOR 4240644.

AI textbooks

History of AI

Other sources

Further reading

  • DH Author, "Why Are There Still So Many Jobs? The History and Future of Workplace Automation" (2015) 29(3) Journal of Economic Perspectives 3.
  • Boden, Margaret, Mind As Machine, Oxford University Press, 2006.
  • Cukier, Kenneth, "Ready for Robots? How to Think about the Future of AI", Foreign Affairs, vol. 98, no. 4 (July/August 2019), pp. 192–98. George Dyson, historian of computing, writes (in what might be called "Dyson's Law") that "Any system simple enough to be understandable will not be complicated enough to behave intelligently, while any system complicated enough to behave intelligently will be too complicated to understand." (p. 197.) Computer scientist Alex Pentland writes: "Current AI machine-learning algorithms are, at their core, dead simple stupid. They work, but they work by brute force." (p. 198.)
  • Domingos, Pedro, "Our Digital Doubles: AI will serve our species, not control it", Scientific American, vol. 319, no. 3 (September 2018), pp. 88–93.
  • Gopnik, Alison, "Making AI More Human: Artificial intelligence has staged a revival by starting to incorporate what we know about how children learn", Scientific American, vol. 316, no. 6 (June 2017), pp. 60–65.
  • Johnston, John (2008) The Allure of Machinic Life: Cybernetics, Artificial Life, and the New AI, MIT Press.
  • Koch, Christof, "Proust among the Machines", Scientific American, vol. 321, no. 6 (December 2019), pp. 46–49. Christof Koch doubts the possibility of "intelligent" machines attaining consciousness, because "[e]ven the most sophisticated brain simulations are unlikely to produce conscious feelings." (p. 48.) According to Koch, "Whether machines can become sentient [is important] for ethical reasons. If computers experience life through their own senses, they cease to be purely a means to an end determined by their usefulness to... humans. Per GNW [the Global Neuronal Workspace theory], they turn from mere objects into subjects... with a point of view.... Once computers' cognitive abilities rival those of humanity, their impulse to push for legal and political rights will become irresistible—the right not to be deleted, not to have their memories wiped clean, not to suffer pain and degradation. The alternative, embodied by IIT [Integrated Information Theory], is that computers will remain only supersophisticated machinery, ghostlike empty shells, devoid of what we value most: the feeling of life itself." (p. 49.)
  • Marcus, Gary, "Am I Human?: Researchers need new ways to distinguish artificial intelligence from the natural kind", Scientific American, vol. 316, no. 3 (March 2017), pp. 58–63. A stumbling block to AI has been an incapacity for reliable disambiguation. An example is the "pronoun disambiguation problem": a machine has no way of determining to whom or what a pronoun in a sentence refers. (p. 61.)
  • E McGaughey, 'Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy' (2018) SSRN, part 2(3) Archived 24 May 2018 at the Wayback Machine.
  • George Musser, "Artificial Imagination: How machines could learn creativity and common sense, among other human qualities", Scientific American, vol. 320, no. 5 (May 2019), pp. 58–63.
  • Myers, Courtney Boyd ed. (2009). "The AI Report" Archived 29 July 2017 at the Wayback Machine. Forbes June 2009
  • Raphael, Bertram (1976). The Thinking Computer. W.H. Freeman and Co. ISBN 978-0716707233. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
  • Scharre, Paul, "Killer Apps: The Real Dangers of an AI Arms Race", Foreign Affairs, vol. 98, no. 3 (May/June 2019), pp. 135–44. "Today's AI technologies are powerful but unreliable. Rules-based systems cannot deal with circumstances their programmers did not anticipate. Learning systems are limited by the data on which they were trained. AI failures have already led to tragedy. Advanced autopilot features in cars, although they perform well in some circumstances, have driven cars without warning into trucks, concrete barriers, and parked cars. In the wrong situation, AI systems go from supersmart to superdumb in an instant. When an enemy is trying to manipulate and hack an AI system, the risks are even greater." (p. 140.)
  • Serenko, Alexander (2010). "The development of an AI journal ranking based on the revealed preference approach" (PDF). Journal of Informetrics. 4 (4): 447–59. doi:10.1016/j.joi.2010.04.001. Archived (PDF) from the original on 4 October 2013. Retrieved 24 August 2013.
  • Serenko, Alexander; Michael Dohan (2011). "Comparing the expert survey and citation impact journal ranking methods: Example from the field of Artificial Intelligence" (PDF). Journal of Informetrics. 5 (4): 629–49. doi:10.1016/j.joi.2011.06.002. Archived (PDF) from the original on 4 October 2013. Retrieved 12 September 2013.
  • Tom Simonite (29 December 2014). "2014 in Computing: Breakthroughs in Artificial Intelligence". MIT Technology Review.
  • Sun, R. & Bookman, L. (eds.), Computational Architectures: Integrating Neural and Symbolic Processes. Kluwer Academic Publishers, Needham, MA. 1994.
  • Taylor, Paul, "Insanely Complicated, Hopelessly Inadequate" (review of Brian Cantwell Smith, The Promise of Artificial Intelligence: Reckoning and Judgment, MIT, 2019, ISBN 978-0262043045, 157 pp.; Gary Marcus and Ernest Davis, Rebooting AI: Building Artificial Intelligence We Can Trust, Ballantine, 2019, ISBN 978-1524748258, 304 pp.; Judea Pearl and Dana Mackenzie, The Book of Why: The New Science of Cause and Effect, Penguin, 2019, ISBN 978-0141982410, 418 pp.), London Review of Books, vol. 43, no. 2 (21 January 2021), pp. 37–39. Paul Taylor writes (p. 39): "Perhaps there is a limit to what a computer can do without knowing that it is manipulating imperfect representations of an external reality."
  • Tooze, Adam, "Democracy and Its Discontents", The New York Review of Books, vol. LXVI, no. 10 (6 June 2019), pp. 52–53, 56–57. "Democracy has no clear answer for the mindless operation of bureaucratic and technological power. We may indeed be witnessing its extension in the form of artificial intelligence and robotics. Likewise, after decades of dire warning, the environmental problem remains fundamentally unaddressed.... Bureaucratic overreach and environmental catastrophe are precisely the kinds of slow-moving existential challenges that democracies deal with very badly.... Finally, there is the threat du jour: corporations and the technologies they promote." (pp. 56–57.)

External links

0.099626064300537