YAPAY ZEKA ZORLUKLARI

Mevcut mimarilerin bilişsel yetenekleri, zekanın gerçekten yapabileceklerinin yalnızca basitleştirilmiş bir versiyonunu kullanarak çok sınırlıdır. Örneğin, insan zihni hayattaki farklı olaylara ölçüsüz bir mantık ve mantıksal açıklamalar getirmenin yollarını buldu. Aksi takdirde basit olan bir şey, aynı derecede zor bir problemin insan aklını kullanmak yerine sayısal olarak çözülmesi zor olabilir. Bu, iki sınıf modele yol açar: yapısalcı ve işlevselcdir. Yapısal modeller, akıl yürütme ve mantık gibi zihnin temel zeka işlemlerini gevşek bir şekilde taklit etmeyi amaçlar. Fonksiyonel model, ilişkili verileri, hesaplanan muadili ile ilgilidir. [85]

Yapay zekanın genel araştırma hedefi, bilgisayarların ve makinelerin akıllı bir şekilde çalışmasına izin veren bir teknoloji yaratmaktır. Genel zeka simülasyonu (veya yaratma) problemi alt problemlere bölünmüştür. Bunlar, araştırmacıların akıllı bir sistemin göstermesini beklediği belirli özelliklerden veya yeteneklerden oluşur. En çok ilgiyi aşağıda açıklanan özellikler almıştır. [16]

AKIL YÜRÜTME – SORUN ÇÖZME  

İlk araştırmacılar, insanların bulmacaları çözerken veya mantıksal çıkarımlar yaparken kullandıkları, adım adım akıl yürütmeyi taklit eden algoritmalar geliştirdiler. [86] 1980’lerin sonunda ve 1990’ların sonunda, AI araştırması, olasılık ve ekonomiden kavramları kullanarak belirsiz veya eksik bilgilerle başa çıkmak için yöntemler geliştirdi . [87]

Bu algoritmalar, büyük akıl yürütme problemlerini çözmek için yetersiz olduklarını kanıtladılar çünkü “birleşik bir patlama” yaşadılar: problemler büyüdükçe katlanarak yavaşladılar. [67] İnsanlar bile, erken AI araştırmalarının modelleyebileceği adım adım çıkarımı nadiren kullanmaktadır. Sorunlarının çoğunu hızlı, sezgisel yargılarla çözerler. [88]

BİLGİ TEMSİLİ 

Ontoloji, bilgiyi bir alandaki bir dizi kavram olarak ve bu kavramlar arasındaki ilişkileri temsil eder

Bilgi temsili [89] ve bilgi mühendisliği [90] , klasik AI araştırmasının merkezidir. Bazı “uzman sistemler”, bazı dar alanlardaki uzmanların sahip olduğu açık bilgileri toplamaya çalışır. Ek olarak, bazı projeler ortalama bir insanın bildiği “sağduyu bilgisini” dünya hakkında kapsamlı bilgi içeren bir veri tabanında toplamaya çalışır. Kapsamlı bir sağduyu bilgi tabanının içereceği şeyler arasında şunlar vardır: nesneler, özellikler, kategoriler ve nesneler arasındaki ilişkiler; [91] durumlar, olaylar, durumlar ve zaman; [92] nedenler ve sonuçlar; [93] bilgi hakkında bilgi (başkalarının bildikleriyle ilgili bildiklerimiz); [94]ve daha az araştırılmış diğer birçok alan. ” Var olanın” temsili bir ontolojidir : Yazılım aracılarının onları yorumlayabilmesi için resmi olarak tanımlanan nesneler, ilişkiler, kavramlar ve özellikler kümesi. Bunların anlambilimleri , açıklama mantığı kavramları, roller ve bireyler olarak yakalanır ve genellikle Web Ontology Dilinde sınıflar, özellikler ve bireyler olarak uygulanır [95] En genel ontolojilere, alan ontolojileri arasında arabulucu olarak hareket ederek [96] diğer tüm bilgiler için bir temel sağlamaya çalışan üst ontolojiler denir.belirli bir bilgi alanı (ilgi alanı veya ilgi alanı) hakkında belirli bilgileri kapsayan. Bu tür resmi bilgi temsilleri, içerik tabanlı indeksleme ve erişimde, [97] sahne yorumlamasında, [98] klinik karar desteğinde, [99] bilgi keşfinde (büyük veri tabanlarından “ilginç” ve eyleme geçirilebilir çıkarımlar madenciliği), [100] ve diğer alanlar. [101]

Bilgi temsilindeki en zor sorunlar arasında şunlar yer alır:

Varsayılan muhakeme ve yeterlilik sorunu
İnsanların bildiği şeylerin çoğu “çalışma varsayımları” biçimini alır. Örneğin, sohbette bir kuş çıkarsa, insanlar genellikle yumruk büyüklüğünde şarkı söyleyen ve uçan bir hayvan hayal eder. Bunların hiçbiri tüm kuşlar için doğru değildir. John McCarthy , 1969’da [102] bu sorunu nitelik problemi olarak tanımladı : AI araştırmacılarının temsil etmeyi önemsediği herhangi bir sağduyu kuralı için, çok sayıda istisna olma eğilimindedir. Soyut mantığın gerektirdiği şekilde neredeyse hiçbir şey basitçe doğru veya yanlış değildir. AI araştırması, bu soruna bir dizi çözüm keşfetti. [103]
Sağduyu bilgisinin genişliği
Ortalama bir insanın bildiği atomik gerçeklerin sayısı çok fazladır. Sağduyu bilgisinden (örneğin, Cyc ) tam bir bilgi tabanı oluşturmaya çalışan araştırma projeleri, muazzam miktarda zahmetli ontolojik mühendislik gerektirir – her seferinde tek bir karmaşık kavram elle inşa edilmelidir. [104]
Bazı sağduyu bilgisinin alt sembolik formu
İnsanların bildiklerinin çoğu, sözlü olarak ifade edebilecekleri “gerçekler” veya “ifadeler” olarak temsil edilmiyor. Örneğin, bir satranç ustası belirli bir satranç pozisyonundan kaçınacaktır çünkü “fazla açıkta kalmış” [105] veya bir sanat eleştirmeni heykele bir kez bakıp bunun sahte olduğunu anlayabilir. [106] Bunlar insan beynindeki bilinçsiz ve alt sembolik sezgiler veya eğilimlerdir. [107] Bunun gibi bilgi, sembolik, bilinçli bilgi için bilgi verir, destekler ve bir bağlam sağlar. İlgili alt sembolik akıl yürütme probleminde olduğu gibi, yerleşik AI , hesaplamalı zeka veya istatistiksel AI’nın bu bilgiyi temsil etmenin yollarını sağlayacağı umulmaktadır . [107]

PLANLAMA 

Bir hiyerarşik kontrol sistemi bir tür kontrol sistemi cihazları ve yönetim yazılımı bir dizi, bir hiyerarşi içinde düzenlenmiş olduğu.

Akıllı ajanlar hedefler koyabilmeli ve bunlara ulaşabilmelidir. [108] Geleceği görselleştirmenin bir yoluna ihtiyaçları var – dünyanın durumunun bir temsili ve eylemlerinin onu nasıl değiştireceğine dair tahminlerde bulunabiliyorlar – ve faydayı (veya “değeri”) en üst düzeye çıkaran seçimler yapabiliyorlar. mevcut seçenekler. [109]

Klasik planlama problemlerinde, temsilci, failin eylemlerinin sonuçlarından emin olmasına izin veren, dünyada hareket eden tek sistem olduğunu varsayabilir. [110] Ancak, ajan tek aktör değilse, ajanın belirsizlik altında karar vermesini gerektirir. Bu, yalnızca çevresini değerlendirip tahminlerde bulunabilen değil, aynı zamanda tahminlerini değerlendirebilen ve değerlendirmesine göre uyarlayabilen bir aracı gerektirir. [111]

Çok temsilcili planlama , belirli bir hedefe ulaşmak için birçok temsilcinin işbirliğini ve rekabetini kullanır. Bunun gibi ortaya çıkan davranışlar, evrimsel algoritmalar ve sürü zekası tarafından kullanılır . [112]

ÖĞRENME 

Alanın başlangıcından bu yana yapay zeka araştırmasının temel bir kavramı olan makine öğrenimi (ML), [113] deneyim yoluyla otomatik olarak gelişen bilgisayar algoritmaları üzerine yapılan çalışmadır. [114] [115]

Denetimsiz öğrenme , bir insanın önce girdileri etiketlemesine gerek kalmadan bir girdi akışında kalıplar bulma yeteneğidir. Denetimli öğrenme , bir insanın önce girdi verilerini etiketlemesini gerektiren hem sınıflandırmayı hem de sayısal regresyonu içerir . Sınıflandırma, bir şeyin hangi kategoriye ait olduğunu belirlemek için kullanılır ve bir program birkaç kategoriden bir dizi örnek gördükten sonra gerçekleşir. Regresyon, girdiler ve çıktılar arasındaki ilişkiyi tanımlayan ve girdiler değiştikçe çıktıların nasıl değişmesi gerektiğini öngören bir işlev üretme girişimidir. [115]Hem sınıflandırıcılar hem de regresyon öğrenenler, bilinmeyen (muhtemelen örtük) bir işlevi öğrenmeye çalışan “işlev yaklaşımlayıcıları” olarak görülebilir; örneğin, bir spam sınıflandırıcı, bir e-posta metninden “spam” veya “spam değil” olmak üzere iki kategoriden birine eşleştiren bir işlevi öğreniyor olarak görülebilir. Hesaplamalı öğrenme teorisi , öğrencileri hesaplama karmaşıklığı , örnek karmaşıklığı (ne kadar veri gereklidir) veya diğer optimizasyon kavramları ile değerlendirebilir . [116] In takviye öğrenme [117] ajanı iyi yanıtlar için ödüllendirilir ve kötü olanlar için cezalandırılır. Temsilci, sorunlu alanında faaliyet göstermek için bir strateji oluşturmak için bu ödül ve ceza dizisini kullanır.

DOĞAL DİL İŞLEME 

Bir Çözümleme ağacı temsil sözdizimsel bazılarına göre bir cümlenin yapısını biçimsel dilbilgisi 

Doğal dil işleme [118] (NLP), makinelerin insan dilini okumasına ve anlamasına izin verirYeterince güçlü bir doğal dil işleme sistemi, doğal dilde kullanıcı arayüzlerini ve bilginin doğrudan haber metinleri gibi insan tarafından yazılmış kaynaklardan edinilmesini mümkün kılacaktırDoğal dil işlemenin bazı basit uygulamaları arasında bilgi erişimimetin madenciliğisoru cevaplama [119] ve  makine çevirisi bulunur.[120] Güncel yaklaşımların birçoğu, metnin sözdizimsel temsillerini oluşturmak için kelime birlikte oluşum frekanslarını kullanır. Arama için “anahtar kelime belirleme” stratejileri popüler ve ölçeklenebilir ancak aptalca; “köpek” için bir arama sorgusu yalnızca “köpek” kelimesi olan dokümanları eşleştirebilir ve “kaniş” kelimesini içeren bir dokümanı gözden kaçırabilir. “Sözcüksel yakınlık” stratejileri , bir belgenin duyarlılığını değerlendirmek için “kaza” gibi kelimelerin oluşumunu kullanır Modern istatistiksel NLP yaklaşımları, tüm bu stratejileri ve diğerlerini birleştirebilir ve genellikle sayfa veya paragraf düzeyinde kabul edilebilir doğruluk elde edebilir. Anlamsal NLP’nin ötesinde, “anlatı” NLP’nin nihai amacı, sağduyu muhakemesinin tam bir anlayışını somutlaştırmaktır. [121] 2019’a kadar, trafotabanlı derin öğrenme mimarileri tutarlı metin oluşturabilir. [122]

ALGI  

Özellik algılama (resimde: kenar algılama), yapay zekanın ham verilerden bilgilendirici soyut yapılar oluşturmasına yardımcı olur.

Makine algısı[123]dünyanın çeşitli yönlerini anlamak için  sensörlerden kameralar (görünür spektrum veya kızılötesi), mikrofonlar, kablosuz sinyaller ve aktif lider, sonar, radar ve dokunsal sensörler gibigelen girdileri kullanma yeteneğidir. Uygulamalar  konuşma tanıma,[124] yüz tanıma ve nesne tanımayı içerir.[125] Bilgisayar görüşügörsel girdiyi analiz etme becerisidir. Bu tür girdiler genellikle belirsizdir; Çok uzaktaki elli metre yüksekliğindeki dev bir yaya, yakındaki normal boyutlu bir yaya ile aynı pikselleri üretebilir ve AI’nın farklı yorumlamaların göreceli olasılığını ve makullüğünü değerlendirmesini gerektirir, örneğin bunu değerlendirmek için “nesne modelini” kullanarak elli metrelik yayalar yok. [126]

HAREKET VE MANİPÜLASYON 

AI, robotikte yoğun bir şekilde kullanılmaktadır. [127] Modern fabrikalarda yaygın olarak kullanılan gelişmiş robotik kollar ve diğer endüstriyel robotlar, sürtünme ve dişli kaymasına rağmen nasıl verimli hareket edileceğini deneyimlerden öğrenebilirler. [128] Modern bir mobil robot, küçük, statik ve görünür bir ortam verildiğinde kolayca konumunu belirleyebilir ve çevresinin haritasını çıkarabilir. Ancak, ( endoskopide ) bir hastanın nefes alan vücudunun içi gibi dinamik ortamlar daha büyük bir zorluk teşkil eder. Hareket planlamabir hareket görevini bireysel eklem hareketleri gibi “ilkellere” ayırma sürecidir. Bu tür bir hareket genellikle, hareketin bir nesneyle fiziksel teması sürdürmeyi gerektirdiği bir süreç olan uyumlu hareketi içerir. [129] [130] [131] Moravec’in paradoksu , insanların hafife aldığı düşük seviyeli duyu-motor becerilerinin bir robota programlamanın tersine, zor olduğunu genelleştirir; Paradoks, 1988 yılında “bilgisayarların zeka testlerinde veya dama oynamada yetişkin düzeyinde performans sergilemesinin nispeten kolay olduğunu ve bir yaşındaki bir çocuğun becerilerini onlara vermenin zor veya imkansız olduğunu” ifade eden Hans Moravec’in adını almıştır . algı ve hareketliliğe gelir “. [132] [133]Bu, damaların aksine, fiziksel el becerisinin milyonlarca yıldır doğal seçilimin doğrudan hedefi olduğu gerçeğine bağlanır . [134]

SOSYAL ZEKA  

Temel sosyal becerilere sahip bir robot olan Kısmet [135]

Moravec’in paradoksu, birçok sosyal zeka biçimine genişletilebilir. [136] [137] Otonom araçların dağıtılmış çok temsilcili koordinasyonu hala zor bir problemdir. [138] Duygusal bilgi işlem, insan etkilerini tanıyan, yorumlayan, işleyen veya simüle eden sistemleri içeren disiplinler arası bir çatıdır [139] [140] [141] Duygusal hesaplamayla ilgili orta düzey başarılar, metinsel duyarlılık analizini ve daha yakın zamanda, yapay zekanın videoya kaydedilen bir özne tarafından görüntülenen etkileri sınıflandırdığı çok modlu duygu analizini (bkz. Çok modlu duygu analizi ) içerir. [142]

Uzun vadede, sosyal beceriler ve insan duyguları ve oyun teorisi anlayışı bir sosyal ajan için değerli olacaktır. Başkalarının eylemlerini güdülerini ve duygusal durumlarını anlayarak tahmin etme yeteneği, bir temsilcinin daha iyi kararlar almasına izin verecektir. Bazı bilgisayar sistemleri, insan etkileşiminin duygusal dinamiklerine daha duyarlı görünmek veya başka şekilde insan-bilgisayar etkileşimini kolaylaştırmak için insan duygu ve ifadelerini taklit eder . [143] Benzer şekilde, bazı sanal asistanlar sohbet yoluyla konuşmak ve hatta mizahla şakalaşmak için programlanmıştır; bu, tecrübesiz kullanıcılara mevcut bilgisayar ajanlarının gerçekte ne kadar zeki olduklarına dair gerçekçi olmayan bir anlayış verme eğilimindedir. [144]

GENEL ZEKA  

Tarihsel olarak, Cyc bilgi tabanı (1984–) ve devasa Japon Beşinci Nesil Bilgisayar Sistemleri girişimi (1982–1992) gibi projeler , insan bilişinin genişliğini kapsamaya çalıştı. Bu ilk projeler, nicel olmayan sembolik mantık modellerinin sınırlamalarından kaçamadı ve geçmişe bakıldığında, alanlar arası yapay zekanın zorluğunu büyük ölçüde hafife aldı. Günümüzde, çoğu mevcut AI araştırmacısı bunun yerine izlenebilir “dar AI” uygulamaları (tıbbi teşhis veya otomobil navigasyonu gibi) üzerinde çalışıyor. [145] Birçok araştırmacı, farklı bireysel alanlarda bu tür “dar yapay zeka” çalışmalarının sonunda yapay genel zekaya sahip bir makineye dahil edileceğini tahmin ediyor(AGI), bu makalede bahsedilen dar becerilerin çoğunu birleştiriyor ve bir noktada bu alanların çoğunda veya tümünde insan yeteneğini bile aşıyor. [20] [146] Birçok ilerlemenin genel, alanlar arası önemi vardır. Yüksek profilli bir örnek, 2010’larda DeepMind’in birçok farklı Atari oyununu kendi başına öğrenebilen “genelleştirilmiş bir yapay zeka” geliştirmesi ve daha sonra sıralı öğrenmeyi başaran bir sistem varyantı geliştirmesidir . [147] [148] [149] Transfer öğrenmenin yanı sıra , [150]Varsayımsal AGI atılımları, karar-teorik metareonizasyonla uğraşabilen yansıtıcı mimarilerin geliştirilmesini ve tüm yapılandırılmamış Web’den kapsamlı bir bilgi tabanının nasıl “bulandırılacağını” bulmayı içerebilir . [7] Bazıları bir tür (şu anda keşfedilmemiş) kavramsal olarak basit, ancak matematiksel olarak zor olan “Ana Algoritma” nın AGI’ye yol açabileceğini iddia ediyor. [151] Son olarak, birkaç “yeni ortaya çıkan” yaklaşım, insan zekasını son derece yakından simüle etmeye çalışıyor ve yapay beyin veya simüle edilmiş çocuk gelişimi gibi antropomorfik özelliklerin bir gün genel zekanın ortaya çıktığı kritik bir noktaya ulaşabileceğine inanıyor . [152][153]

Makineler sorunları insanlar kadar çözecekse, bu makaledeki sorunların çoğu genel zeka gerektirebilir. Örneğin, makine çevirisi gibi belirli basit görevler bile , bir makinenin her iki dilde de okuyup yazmasını ( NLP ), yazarın argümanını ( nedenini ) takip etmesini , ne hakkında konuşulduğunu bilmesini ( bilgi ) ve yazarın orijinalini aslına uygun şekilde yeniden üretmesini gerektirir. Makine çevirisi gibi bir sorun ” yapay zeka tamamlandı ” olarak kabul edilir, çünkü insan düzeyinde makine performansına ulaşmak için tüm bu sorunların aynı anda çözülmesi gerekir.

KAYNAKÇ A

  1. Yapay zekanın akıllı ajanlarınçalışması olarak tanımı: *Poole, Mackworth & Goebel 1998,s. 1, bu makalede kullanılan sürümü sağlar. Yapay zeka ile eşanlamlı olarak “hesaplamalı zeka” terimini kullandıklarına dikkat edin. *Russell ve Norvig (2003)(“rasyonel ajan” terimini tercih eden) ve “Tüm temsilci görüşü artık bu alanda geniş çapta kabulgörüyor” (Russell ve Norvig 2003, s. 55). *Nilsson 1998 *Legg & Hutter 2007.
  2.  Russell ve Norvig 2009 , s. 2.
  3.  McCorduck 2004 , s. 204
  4.  Maloof, Mark. “Yapay Zeka: Giriş, s. 37” (PDF) . georgetown.edu . 25 Ağustos 2018 tarihinde orjinalinden arşivlendi (PDF) .
  5. “Yapay Zeka, Yetenek Yönetimi ve İK Teknolojisinde Nasıl Çığır Açan Değişiklikler Sağlıyor” . Hackernoon. 11 Eylül 2019 tarihinde kaynağından arşivlendi . Erişim tarihi: 14 Şubat 2020 .
  6.  Schank, Roger C. (1991). “AI nerede”. AI dergisi . Cilt 12 hayır. 4. s. 38.
  7.  Russell & Norvig 2009.
  8. AlphaGo – Google DeepMind”. 10 Mart 2016tarihindeorjinalindenarşivlendi.
  9.  Allen, Gregory (Nisan 2020). “Savunma Bakanlığı Ortak Yapay Zeka Merkezi – Yapay Zeka Teknolojisini Anlama” (PDF) . AI.mil – Savunma Bakanlığı Ortak Yapay Zeka Merkezi’nin resmi sitesi . 21 Nisan 2020 tarihinde orjinalinden arşivlendi (PDF) . Erişim tarihi: 25 Nisan 2020 .
  10.  Erken Yapay Zekanın İyimserliği: *Herbert Simonalıntı:Simon 1965, s. 96 alıntıCrevier 1993, s. 109. *Marvin Minskyalıntı:Minsky 1967, s. 2 alıntıCrevier 1993, s. 109.
  11. 1980’lerin patlaması:uzman sistemlerinyükselişi,Beşinci Nesil Projesi,Alvey,MCC,SCI: *McCorduck 2004, s. 426–441*Crevier 1993, s. 161–162,197–203, 211, 240*Russell & Norvig 2003, s. 24*NRC 1999, s. 210–211 *Newquist 1994, s.235–248
  12.  FirstAI Winter,Mansfield Amendment,Lighthill raporu*Crevier 1993, s. 115–117*Russell & Norvig 2003, s. 22*NRC 1999, s. 212–213 *Howe 1994*Newquist 1994, s. 189–201
  13.  İkinciAI kışı: *McCorduck 2004, s. 430–435*Crevier 1993, s. 209–210*NRC 1999, s. 214–216 *Newquist 1994, s. 301–318
  14.  AI, 21. yüzyılın başlarında büyük ölçüde başarılı oluyor *Clark 2015
  15. PamelaMcCorduck (2004, s. 424)”Yapay zekanın alt alanlarda (vizyon, doğal dil, karar teorisi, genetik algoritmalar, robotikler … birbirlerine söylemek için. “
  16. Bu akıllı özellikler listesi, aşağıdakiler dahil olmak üzere başlıca AI ders kitaplarının kapsadığı konulara dayanmaktadır: *Russell & Norvig 2003*Luger & Stubblefield 2004*Poole, Mackworth & Goebel 1998*Nilsson 1998
  17. Biyolojik zekaya karşı genel olarak zeka: *Russell & Norvig 2003, s. 2–3,havacılık mühendisliğiile benzerlik kuran. *McCorduck 2004, s. 100–101, “yapay zekanın iki ana dalı olduğunu yazıyor: biri nasıl başarıldığına bakılmaksızın akıllı davranış üretmeyi, diğeri doğada bulunan akıllı süreçleri, özellikle de insanı modellemeyi hedefliyor. olanlar. ” *Kolata 1982,McCarthy’ninbiyolojik modellere ilgisizliğinianlatanScience dergisinde yayınlananbir makale. Kolata, McCarthy’den şöyle alıntı yapıyor: “Bu AI, bu yüzden psikolojik olarak gerçek olup olmadığı umurumuzda değil”“Bilim” . Ağustos 1982. 25 Temmuz 2020 tarihinde orjinalinden arşivlendi . Erişim tarihi: 16 Şubat 2016 .. McCarthy geçtiğimiz günlerde AI @ 50 konferansındaki konumunu yineledi ve burada “Yapay zeka, tanımı gereği insan zekasının simülasyonu değildir” ( Maker 2006 ).
  18.  Neats vs. scruffies: *McCorduck 2004, s. 421–424, 486–489*Crevier 1993, s. 168*Nilsson 1983, s. 10-11
  19. Sembolik ve alt sembolik Yapay Zeka: *”alt sembolik” terimini kullananNilsson (1998, s. 7).
  20.  Genel zeka (güçlü AI),AI’yayapılan popüler girişlerde tartışılmaktadır: *Kurzweil 1999veKurzweil 2005
  21. Dartmouth önerisini altında, Felsefe aşağıda.
  22.  (McCorduck 2004, s. 34)” McCorduck 2004 , s. 340–400)
  23.  “Stephen Hawking, AI’nın insanlığın son başarısı olabileceğine inanıyor” . BetaNews . 21 Ekim 2016. 28 Ağustos 2017 tarihinde kaynağından arşivlendi .
  24.  Lombardo P, Boehm I, Nairz K (2020). “RadioComics – Noel Baba ve radyolojinin geleceği” . Eur J Radiol . 122 (1): 108771. doi : 10.1016 / j.ejrad.2019.108771 . PMID  31835078 .
  25.  Ford, Martin; Colvin, Geoff (6 Eylül 2015). “Robotlar yok ettiklerinden daha fazla iş yaratacak mı?” Koruyucu. 16 Haziran 2018tarihinde kaynağından arşivlendi. Erişim tarihi: 13 Ocak 2018.
  26.  Sahne arkasında yaygın olarak kullanılan AI uygulamaları: *Russell & Norvig 2003, s. 28*Kurzweil 2005, s. 265 *NRC 1999, s. 216–222 *Newquist 1994, s. 189–201
  27. Mitte AI: *McCorduck 2004, s. 4–5*Russell & Norvig 2003, s. 939
  28.  Erken bilim kurguda AI. * McCorduck 2004 , s. 17–25
  29.  Biçimsel akıl yürütme: * Berlinski, David (2000). Algoritmanın Gelişi . Harcourt Books. ISBN 978-0-15-601391-8OCLC  46890682 . 26 Temmuz 2020 tarihinde kaynağından arşivlendi 22 Ağustos 2020 tarihinde alındı .
  30.  Turing, Alan (1948), “Machine Intelligence”, Copeland içinde, B. Jack (ed.), The Essential Turing: Bilgisayar çağını doğuran fikirler , Oxford: Oxford University Press, s. 412, ISBN 978-0-19-825080-7
  31.  Russell ve Norvig 2009 , s. 16.
  32.  Dartmouth konferansı : * McCorduck 2004 , s. 111–136* Crevier 1993 , s. 47–49, “konferans genel olarak yeni bilimin resmi doğum tarihi olarak kabul edilmektedir.” * Russell ve Norvig 2003 , s. 17, konferansa “yapay zekanın doğuşu” adını veren kişi. * NRC 1999 , s. 200–201
  33.  McCarthy, John (1988). ” Yapay Zeka Sorununun Gözden Geçirilmesi “. Bilişim Tarihinin Yıllıkları . 10 (3): 224–229.McCarthy, John (1996) ‘da toplanmıştır .
  34.  Dartmouth konferans katılımcılarının hegemonyası: * Russell & Norvig 2003 , s. 17, “McCorduck 2004 , s. 129–130
  35.  Russell ve Norvig 2003 , s. 18.
  36.  Schaeffer J. (2009) Samuel O Oyunu Çözmedi mi ?. In: Bir Atlama İleri. Springer, Boston, MA
  37.  Samuel, AL (Temmuz 1959). “Dama Oyununu Kullanarak Makine Öğreniminde Bazı Çalışmalar”. IBM Araştırma ve Geliştirme Dergisi . 3 (3): 210–229. CiteSeerX  10.1.1.368.2254 . doi : 10.1147 / rd.33.0210 .
  38.  Yapay zekanın altın yılları ” (başarılı sembolik muhakeme programları 1956–1973): *McCorduck 2004 , s. 243–252 * Crevier 1993 , s. 52–107* Moravec 1988 , s. 9* Russell & Norvig 2003 , s. 18-21açıklanan programlardır Arthur Samuel ‘için s dama programı IBM 701 , Daniel Bobrow ‘ ın ÖĞRENCİ , Newell ve Simon ‘ın Mantık Kuramcısı ve Terry Winograd ‘ ın SHRDLU .
  39.  DARPA , 1960’larda yapay zeka üzerine yöneltilmemiş saf araştırmalara para akıtıyor : *McCorduck 2004 , s. 131* Crevier 1993 , s. 51, 64–65* NRC 1999 , s. 204–205
  40.  İngiltere’de AI: * Howe 1994
  41.  Lighthill 1973 .
  42.  Uzman sistemler: *ACM 1998, I.2.1 *Russell & Norvig 2003, s. 22–24*Luger & Stubblefield 2004, s. 227–331 *Nilsson 1998, bölüm. 17.4 *McCorduck 2004, s. 327–335, 434–435*Crevier 1993, s. 145–62, 197–203*Newquist 1994, s. 155–183
  43. Mead, Carver A .; İsmail, Muhammed (8 Mayıs 1989). Sinir Sistemlerinin Analog VLSI Uygulaması (PDF) . Mühendislik ve Bilgisayar Bilimlerinde Kluwer Uluslararası Serisi. 80. Norwell, MA: Kluwer Academic Publishers . doi : 10.1007 / 978-1-4613-1639-8 . ISBN 978-1-4613-1639-8. 6 Kasım 2019 tarihinde orjinalinden (PDF) arşivlendi . Erişim tarihi: 24 Ocak 2020 .
  44.  Biçimsel yöntemler artık tercih edilmektedir (“Neats’inZaferi”): *Russell & Norvig 2003, s. 25–26*McCorduck 2004, s. 486–487
  45.  McCorduck 2004 , s. 480–483.
  46.  Markoff 2011 .
  47.  “Yapay zeka uzmanlarına sorun: Yapay zekada bugünün ilerlemesini ne tetikliyor?” McKinsey & Company . 13 Nisan 2018 tarihinde orjinalinden arşivlendi . Erişim tarihi: 13 Nisan 2018 .
  48.  Yönetici. “Kinect’in yapay zeka buluşu açıklandı” . i-programmer.info . 1 Şubat 2016 tarihinde orjinalinden arşivlendi .
  49.  Rowinski, Dan (15 Ocak 2013). “Sanal Kişisel Asistanlar ve Akıllı Telefonunuzun Geleceği [İnfografik]” . ReadWrite . 22 Aralık 2015 tarihinde orjinalinden arşivlendi .
  50.  “Yapay zeka: Google’ın AlphaGo, Go ustası Lee Se-dol’u geride bıraktı” . BBC News . 12 Mart 2016. 26 Ağustos 2016 tarihinde orjinalinden arşivlendi . Erişim tarihi: 1 Ekim2016 .
  51. ^ Metz, Cade (27 Mayıs 2017). AlphaGo’nun Tasarımcıları Çin’de Kazandıktan Sonra Yeni apay Zekayı Keşfediyor . Kablolu . 2 Haziran 2017 tarihinde kaynağından arşivlendi .
  52.  “Dünyanın Go Oyuncu Derecelendirmeleri” . Mayıs 2017. 1 Nisan 2017 tarihindeorjinalinden arşivlendi .
  53.  “柯 洁 迎 19 岁 生日 雄踞 人类 世界 排名 第一 已 两年” (Çince). Mayıs 2017. 11 Ağustos 2017 tarihinde orjinalinden arşivlendi .
  54. Clark, Jack (8 Aralık 2015). 
  55. “Yapay Zeka ile İşletmeyi Yeniden Şekillendirmek” . MIT Sloan Management Review . 19 Mayıs 2018 tarihinde kaynağından arşivlendi . Erişim tarihi: 2 Mayıs 2018 .
  56.  Lorica, Ben (18 Aralık 2017). “AI’nın benimsenme durumu” . O’Reilly Media . 2 Mayıs 2018 tarihinde kaynağından arşivlendi . Erişim tarihi: 2 Mayıs 2018 .
  57.  Allen, Gregory (6 Şubat 2019). “Çin’in AI Stratejisini Anlamak” . Yeni Amerikan Güvenlik Merkezi . 17 Mart 2019 tarihinde kaynağından arşivlendi .
  58. “İnceleme | Nasıl iki yapay zeka süper gücü – ABD ve Çin – sahada üstünlük için savaşıyor” . Washington Post . 2 Kasım 2018 Arşivlenen 4 Kasım 2018 tarihinde Orijinalden . Erişim tarihi: 4 Kasım 2018 .
  59. at 10:11, Alistair Dabbs 22 Şub 2019. “Yapay Zeka: Gerçek olmadığını biliyorsun, değil mi?” www.theregister.co.uk . 21 Mayıs 2020 tarihinde kaynağından arşivlendi 22 Ağustos 2020 tarihinde alındı .
  60.  “Buna Yapay Zeka Demeyi Bırakın” . 2 Aralık 2019 tarihinde kaynağından arşivlendi . Erişim tarihi: 1 Aralık 2019 .
  61. “AI dünyayı ele geçirmiyor – henüz mevcut değil” . GBG Global web sitesi . 11 Ağustos 2020 tarihinde kaynağından arşivlendi 22 Ağustos 2020 tarihinde alındı .
  62.  Kaplan, Andreas; Haenlein, Michael (1 Ocak 2019). “Siri, Siri, elimde: Ülkedeki en adil kim? Yapay zekanın yorumları, çizimleri ve etkileri hakkında”. İş Ufukları . 62 (1): 15–25. doi10.1016 / j.bushor.2018.08.004 .
  63.  Domingos 2015 , Bölüm 5.
  64.  Domingos 2015 , Bölüm 7.
  65.  Lindenbaum, M., Markovitch, S. ve Rusakov, D. (2004). En yakın komşu sınıflandırıcılar için seçici örnekleme. Makine öğrenimi, 54 (2), 125–152.
  66.  Domingos 2015 , Bölüm 1.
  67.  İnatçılık ve verimlilikvekombinatoryal patlama: *Russell & Norvig 2003, s. 9, 21–22
  68.  Domingos 2015 , Bölüm 2, Bölüm 3.
  69.  Hart, PE; Nilsson, NJ; Raphael, B. (1972). Asgari Maliyet Yollar Sezgisel Belirlenmesi için Biçimsel Temeli “için düzeltme ‘  “. SIGART Haber Bülteni (37): 28–29. doi : 10.1145 / 1056777.1056779 . S2CID  6386648 .
  70.  Domingos 2015 , Bölüm 2, Bölüm 4, Bölüm 6.
  71. “Sinir ağı bilgisayarları deneyimlerden öğrenebilir mi ve eğer öyleyse, bizim ‘akıllı’ dediğimiz şey haline gelebilirler mi?” Scientific American . 3 Mart 2016 tarihinde kaynağından arşivlendi . 2018. 25 Mart 2018 tarihinde kaynağından arşivlendi . Alındı 24 Mart 2018 .
  72.  Domingos 2015 , Bölüm 6, Bölüm 7.
  73.  Domingos 2015 , s. 286.
  74.  “Tek piksel değişikliği AI programlarını aptal yerine koyar” . BBC News . 3 Kasım 2017. 22 Mart 2018 tarihinde kaynağından arşivlendi . Erişim tarihi: 12 Mart 2018 .
  75. “Yapay Zeka’nın Düzeltilmesi Zor Bir Halüsinasyon Sorunu Var” . KABLOLU . 2018. 12 Mart 2018 tarihinde kaynağından arşivlendi . Erişim tarihi: 12 Mart 2018 .
  76.  Goodfellow, Ian J .; Shlens, Jonathon; Szegedy, Hıristiyan (2014). “Tartışmalı Örnekleri Açıklamak ve Kullanmak”. arXiv : 1412.6572 [ stat.ML ].
  77.  Matti, D .; Ekenel, HK; Thiran, JP (2017). Yaya algılama için LiDAR uzay kümeleme ve evrişimli sinir ağlarını birleştiriyor . 2017 14. IEEE Uluslararası Gelişmiş Video ve Sinyal Tabanlı Gözetim Konferansı (AVSS) . s. 1–6. arXiv : 1710.06160 . doi : 10.1109 / AVSS.2017.8078512 . ISBN 978-1-5386-2939-0S2CID  2401976 .
  78. Ferguson, Sarah; Luders, Brandon; Grande, Robert C .; Nasıl Jonathan P. (2015). Gerçek Zamanlı Tahmine Dayalı Modelleme ve Belirsiz, Değişen Niyeti Olan Yayaların Sağlam Önlenmesi . Robotiklerin Algoritmik Temelleri XI . Gelişmiş Robotikte Springer Yolları. 107 . Springer, Cham. s. 161–177. arXiv : 1405.5581 . doi : 10.1007 / 978-3-319-16595-0_10ISBN 978-3-319-16594-3S2CID  8681101 .
  79. “Sağduyu Geliştirme | DiscoverMagazine.com” . Dergiyi Keşfedin . 2017 Arşivlenmiş orijinal 25 Mart 2018 tarihinde . Alındı 24 Mart 2018 .
  80. Davis, Ernest; Marcus, Gary (24 Ağustos 2015). Yapay zekada “sağduyu muhakemesi ve sağduyu bilgisi” . ACM’nin İletişimi . 58 (9): 92–103. doi : 10.1145 / 2701413 . S2CID  13583137 . 22 Ağustos 2020 tarihinde kaynağından arşivlendi . Erişim tarihi: 6 Nisan2020 .
  81.  Winograd, Terry (Ocak 1972). “Doğal dili anlamak”. Bilişsel Psikoloji . 3 (1): 1-191. doi : 10.1016 / 0010-0285 (72) 90002-3 .
  82.  “Endişelenmeyin: Otonom arabalar yarın (veya gelecek yıl) gelmeyecek” . Autoweek . 2016. 25 Mart 2018 tarihinde orjinalinden arşivlendi . Alındı 24 Mart 2018 .
  83.  Şövalye, Will (2017). “Boston, kötü sürücülerle ünlü olabilir, ancak daha akıllı kendi kendine giden bir otomobil için test alanı” . MIT Technology Review . 22 Ağustos 2020 tarihinde kaynağından arşivlendi . Alındı Mart 27 2018 .
  84.  Prakken, Henry (31 Ağustos 2017). “Otonom araçların trafik kanununa uygun hale getirilmesi sorunu üzerine” . Yapay Zeka ve Hukuk . 25 (3): 341–363. doi : 10.1007 / s10506-017-9210-0 .
  85.  Lieto, Antonio (Mayıs 2018). “Bilişsel mimarilerde bilgi seviyesi: Mevcut sınırlamalar ve olası gelişmeler”. Bilişsel Sistem Araştırması . 48 : 39–55. doi : 10.1016 / j.cogsys.2017.05.001 . hdl : 2318/1665207 . S2CID  206868967 .
  86.  Problem çözme, bulmaca çözme, oyun oynama ve kesinti: * Russell & Norvig 2003 , bölüm. 3–9, * Poole, Mackworth & Goebel 1998 , bölüm. 2,3,7,9, * Luger & Stubblefield 2004 , bölüm. 3,4,6,8, * Nilsson 1998 , bölüm. 7-12
  87.  Belirsiz muhakeme: * Russell & Norvig 2003 , s. 452–644, * Poole, Mackworth & Goebel 1998 , s. 345–395, * Luger & Stubblefield 2004 , s. 333–381, * Nilsson 1998 , bölüm. 19
  88.  Alt sembolik muhakemenin psikolojik kanıtı: * Wason ve Shapiro (1966)
  89.  Bilgi temsili : * ACM 1998 , I.2.4, * Russell & Norvig 2003 , s. 320–363, * Poole, Mackworth & Goebel 1998 , s. 23–46, 69–81, 169–196, 235–277, 281–298, 319–345, *Luger & Stubblefield 2004 , s. 227–243, * Nilsson 1998 , bölüm. 18
  90.  Bilgi mühendisliği : * Russell & Norvig 2003 , s. 260–266, * Poole, Mackworth & Goebel 1998 , s. 199–233, * Nilsson 1998 , bölüm. ≈17.1–17.4
  91.  Kategorileri ve ilişkileri temsil etmek: Anlamsal ağlar , açıklama mantığı , kalıtım (çerçeveler ve komut dosyaları dahil): * Russell & Norvig 2003 , s. 349–354, * Poole, Mackworth & Goebel 1998 , s. 174–177, * Luger & Stubblefield 2004 , s. 248–258, * Nilsson 1998 , bölüm. 18.3
  92.  Representing events and time:Situation calculus, event calculus, fluent calculus (including solving the frame problem): * Russell & Norvig 2003, pp. 328–341, * Poole, Mackworth & Goebel 1998, pp. 281–298, * Nilsson 1998, chpt. 18.2
  93.  Causal calculus: * Poole, Mackworth & Goebel 1998, pp. 335–337
  94.  Representing knowledge about knowledge: Belief calculus, modal logics: * Russell & Norvig 2003, pp. 341–344, * Poole, Mackworth & Goebel 1998, pp. 275–277
  95.  Sikos, Leslie F. (June 2017). Description Logics in Multimedia Reasoning. Cham: Springer. doi:10.1007/978-3-319-54066-5. ISBN 978-3-319-54066-5. S2CID 3180114. Archived from the original on 29 August 2017.
  96.  Ontology: * Russell & Norvig 2003, pp. 320–328
  97.  Smoliar, Stephen W.; Zhang, HongJiang (1994). “Content based video indexing and retrieval”. IEEE Multimedia1 (2): 62–72. doi:10.1109/93.311653. S2CID 32710913.
  98.  Neumann, Bernd; Möller, Ralf (January 2008). “On scene interpretation with description logics”. Image and Vision Computing26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013.
  99.  Kuperman, G. J.; Reichley, R. M.; Bailey, T. C. (1 July 2006). “Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations”. Journal of the American Medical Informatics Association13 (4): 369–371. doi:10.1197/jamia.M2055. PMC 1513681. PMID 16622160.
  100.  MCGARRY, KEN (1 December 2005). “A survey of interestingness measures for knowledge discovery”. The Knowledge Engineering Review20 (1): 39–61. doi:10.1017/S0269888905000408. S2CID 14987656.
  101.  Bertini, M; Del Bimbo, A; Torniai, C (2006). “Automatic annotation and semantic retrieval of video sequences using multimedia ontologies”. MM ’06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. pp. 679–682.
  102.  Qualification problem: * McCarthy & Hayes 1969 * Russell & Norvig 2003[page needed]While McCarthy was primarily concerned with issues in the logical representation of actions, Russell & Norvig 2003 apply the term to the more general issue of default reasoning in the vast network of assumptions underlying all our commonsense knowledge.
  103.  Default reasoning and default logic, non-monotonic logics, circumscription, closed world assumption, abduction (Poole et al. places abduction under “default reasoning”. Luger et al.places this under “uncertain reasoning”): * Russell & Norvig 2003, pp. 354–360, * Poole, Mackworth & Goebel 1998, pp. 248–256, 323–335, * Luger & Stubblefield 2004, pp. 335–363, * Nilsson 1998, ~18.3.3
  104.  Breadth of commonsense knowledge: * Russell & Norvig 2003, p. 21, * Crevier 1993, pp. 113–114, * Moravec 1988, p. 13, * Lenat & Guha 1989 (Introduction)
  105.  Dreyfus & Dreyfus 1986.
  106.  Gladwell 2005.
  107.  Expert knowledge as embodied intuition: * Dreyfus & Dreyfus 1986 (Hubert Dreyfus is a philosopher and critic of AI who was among the first to argue that most useful human knowledge was encoded sub-symbolically. See Dreyfus’ critique of AI) * Gladwell 2005(Gladwell’s Blink is a popular introduction to sub-symbolic reasoning and knowledge.) * Hawkins & Blakeslee 2005 (Hawkins argues that sub-symbolic knowledge should be the primary focus of AI research.)
  108.  Planning: * ACM 1998, ~I.2.8, * Russell & Norvig 2003, pp. 375–459, * Poole, Mackworth & Goebel 1998, pp. 281–316, * Luger & Stubblefield 2004, pp. 314–329, * Nilsson 1998, chpt. 10.1–2, 22
  109.  Information value theory: * Russell & Norvig 2003, pp. 600–604
  110.  Classical planning: * Russell & Norvig 2003, pp. 375–430, * Poole, Mackworth & Goebel 1998, pp. 281–315, * Luger & Stubblefield 2004, pp. 314–329, * Nilsson 1998, chpt. 10.1–2, 22
  111.  Planning and acting in non-deterministic domains: conditional planning, execution monitoring, replanning and continuous planning: * Russell & Norvig 2003, pp. 430–449
  112.  Multi-agent planning and emergent behavior: * Russell & Norvig 2003, pp. 449–455
  113.  Alan Turing discussed the centrality of learning as early as 1950, in his classic paper “Computing Machinery and Intelligence”.(Turing 1950) In 1956, at the original Dartmouth AI summer conference, Ray Solomonoff wrote a report on unsupervised probabilistic machine learning: “An Inductive Inference Machine”.(Solomonoff 1956)
  114.  This is a form of Tom Mitchell’s widely quoted definition of machine learning: “A computer program is set to learn from an experience E with respect to some task T and some performance measure P if its performance on T as measured by P improves with experience E.”
  115.  Learning: * ACM 1998, I.2.6, * Russell & Norvig 2003, pp. 649–788, * Poole, Mackworth & Goebel 1998, pp. 397–438, * Luger & Stubblefield 2004, pp. 385–542, * Nilsson 1998, chpt. 3.3, 10.3, 17.5, 20
  116. Jordan, M. I.; Mitchell, T. M. (16 July 2015). “Machine learning: Trends, perspectives, and prospects”. Science349 (6245): 255–260. Bibcode:2015Sci…349..255J. doi:10.1126/science.aaa8415. PMID 26185243. S2CID 677218.
  117.  Reinforcement learning: * Russell & Norvig 2003, pp. 763–788 * Luger & Stubblefield 2004, pp. 442–449
  118. Natural language processing: * ACM 1998, I.2.7 * Russell & Norvig 2003, pp. 790–831 * Poole, Mackworth & Goebel 1998, pp. 91–104 * Luger & Stubblefield 2004, pp. 591–632
  119. “Versatile question answering systems: seeing in synthesis” Archived 1 February 2016 at the Wayback Machine, Mittal et al., IJIIDS, 5(2), 119–142, 2011
  120. Applications of natural language processing, including information retrieval (i.e. text mining) and machine translation: * Russell & Norvig 2003, pp. 840–857, * Luger & Stubblefield 2004, pp. 623–630
  121. Cambria, Erik; White, Bebo (May 2014). “Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]”. IEEE Computational Intelligence Magazine9 (2): 48–57. doi:10.1109/MCI.2014.2307227. S2CID 206451986.
  122. Vincent, James (7 November 2019). “OpenAI has published the text-generating AI it said was too dangerous to share”. The Verge. Archived from the original on 11 June 2020. Retrieved 11 June 2020.
  123. Machine perception: * Russell & Norvig 2003, pp. 537–581, 863–898 * Nilsson 1998, ~chpt. 6
  124.  Speech recognition: * ACM 1998, ~I.2.7 * Russell & Norvig 2003, pp. 568–578
  125.  Object recognition: * Russell & Norvig 2003, pp. 885–892
  126.  Computer vision: * ACM 1998, I.2.10 * Russell & Norvig 2003, pp. 863–898 * Nilsson 1998, chpt. 6
  127.  Robotics: * ACM 1998, I.2.9, * Russell & Norvig 2003, pp. 901–942, * Poole, Mackworth & Goebel 1998, pp. 443–460
  128. Moving and configuration space: * Russell & Norvig 2003, pp. 916–932
  129.  Tecuci 2012.
  130. Robotic mapping (localization, etc): * Russell & Norvig 2003, pp. 908–915
  131. Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (Aralık 2016). “Eşzamanlı Yerelleştirme ve Haritalamanın Geçmişi, Bugünü ve Geleceği: Sağlam Algılama Çağına Doğru”. Robotikte IEEE İşlemleri . 32 (6): 1309–1332. arXiv : 1606.05830 . Bibcode : 2016arXiv160605830C . doi : 10.1109 / TRO.2016.2624754 . S2CID  2596787 .
  132.  Moravec, Hans (1988). Mind Children . Harvard Üniversitesi Yayınları. s. 15.
  133. Chan, Szu Ping (15 Kasım 2015). “Robotlar dünyayı ele geçirdiğinde olacak olan bu” . 24 Nisan 2018 tarihinde kaynağından arşivlendi . Erişim tarihi: 23 Nisan 2018 .
  134. “IKEA mobilyaları ve AI’nın sınırları” . The Economist . 2018. 24 Nisan 2018 tarihindekaynağından arşivlendi . Alındı 24 Nisan 2018 .
  135.  Kısmet .
  136. Thompson, Derek (2018). “Robotlar Hangi İşleri Alacak?” Atlantik . 24 Nisan 2018 tarihinde kaynağından arşivlendi . Alındı 24 Nisan 2018 .
  137. cassellati, Brian (2002). “İnsansı bir robot için zihin teorisi”. Otonom Robotlar . 12 (1): 13–24. doi : 10.1023 / A: 1013298507114 . S2CID  1979315 .
  138. Cao, Yongcan; Yu, Wenwu; Ren, Wei; Chen, Guanrong (Şubat 2013). “Dağıtılmış Çok Temsilci Koordinasyon Çalışmasında Son Gelişmelere Genel Bakış”. Endüstriyel Bilişimde IEEE İşlemleri . 9 (1): 427–438. arXiv : 1207.3231 . doi : 10.1109 / TII.2012.2219061 . S2CID  9588126 .
  139.  Thro 1993 .
  140.  Edelson 1991 .
  141.  Tao & Tan 2005 .
  142.  Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (Eylül 2017). “Duygusal hesaplamanın gözden geçirilmesi: Tek modlu analizden çok modlu füzyona”. Bilgi Füzyonu . 37 : 98–125. doi : 10.1016 / j.inffus.2017.02.003 . hdl : 1893/25490 .
  143.  Duygu ve duygusal bilgi işlem : * Minsky 2006
  144.  Waddell, Kaveh (2018). “Sohbet Robotları Esrarengiz Vadiye Girdi” . Atlantik . 24 Nisan 2018 tarihinde kaynağından arşivlendi . Alındı 24 Nisan 2018 .
  145.  Pennachin, C .; Goertzel, B. (2007). Yapay Genel Zekaya Çağdaş Yaklaşımlar . Yapay Genel Zeka. Bilişsel Teknolojiler . Bilişsel Teknolojiler. Berlin, Heidelberg: Springer. doi : 10.1007 / 978-3-540-68677-4_1 . ISBN 978-3-540-23733-4.
  146.  Roberts, Jacob (2016). “Düşünme Makineleri: Yapay Zeka Arayışı”Damıtmalar. Cilt 2 hayır. 2. sayfa 14–23. Arşivlenmişorijinal19 Ağustos 2018 tarihinde. Erişim tarihi:20 Mart 2018.
  147. “Yapay zekanın süper kahramanı: Bu dahi onu kontrol altında tutabilir mi?” The Guardian . 16 Şubat 2016. 23 Nisan 2018 tarihinde kaynağından arşivlendi . Erişim tarihi: 26 Nisan 2018 .
  148.  Mnih, Volodymyr; Kavukçuoğlu, Koray; Gümüş, David; Rusu, Andrei A .; Veness, Joel; Bellemare, Marc G .; Graves, Alex; Riedmiller, Martin; Fidjeland, Andreas K .; Ostrovski, Georg; Petersen, Stig; Beattie, Charles; Sadık, Amir; Antonoglou, Ioannis; Kral, Helen; Kumaran, Dharshan; Wierstra, Daan; Legg, Shane; Hassabis, Demis (26 Şubat 2015). “Derin pekiştirmeli öğrenme yoluyla insan seviyesinde kontrol”. Doğa . 518 (7540): 529–533. Bibcode : 2015Natur.518..529M . doi : 10.1038 / nature14236 . PMID  25719670 . S2CID  205242740 .
  149.  Sample, Ian (14 Mart 2017). “Google’ın DeepMind, bir insan gibi öğrenebilen bir AI programı yapıyor” . The Guardian . 26 Nisan 2018 tarihinde kaynağından arşivlendi . Erişim tarihi: 26 Nisan 2018 .
  150.  “Çalışmamaktan sinir ağına” . The Economist . 2016. 31 Aralık 2016 tarihindeorjinalinden arşivlendi . Erişim tarihi: 26 Nisan 2018 .
  151.  Domingos 2015 .
  152. Yapay beyinargümanları: AI, insan beyninin işleyişinin bir simülasyonunu gerektirir *Russell & Norvig 2003, s. 957*Crevier 1993, s. 271 ve 279Tartışmanın bir şeklini oluşturan insanlardan birkaçı: *Moravec 1988*Kurzweil 2005, s. 262 *Hawkins & Blakeslee 2005Bu argümanın en uç biçimi (beyin değiştirme senaryosu)1970’lerin ortalarındaClark Glymourtarafından ortaya atıldıve1980’deZenon PylyshynveJohn Searletarafındandeğinildi.
  153.  Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (Aralık 2010). “Yapay beyin projelerinin dünya araştırması, Bölüm II: Biyolojik olarak ilham alan bilişsel mimariler”. Nöro hesaplama . 74 (1–3): 30–49. doi : 10.1016 / j.neucom.2010.08.012 .
Reklam (#YSR)