Bölüm 24 1980–1987Kışlar ve Yeniden Doğuş

Yapay Zekanın Yeniden Doğuşu

Uzman sistemlerin yükselişi ve yapay zekanın ticari uygulamalara açılması.

yapay zekanın yeniden doğuşu uzman sistemler bilgi tabanlı sistemler 1980'ler XCON
Önemli isimler: Edward Feigenbaum

1. Giriş

1982 yılının Ekim ayında, Tokyo'daki bir konferans salonunda Japonya'nın Uluslararası Ticaret ve Sanayi Bakanlığı (Ministry of International Trade and Industry — MITI), dünya bilişim tarihini değiştirecek bir projeyi duyurdu: Beşinci Nesil Bilgisayar Sistemleri Projesi (Fifth Generation Computer Systems — FGCS) [1]. Proje, on yıl içinde "düşünebilen makineler" yaratmayı, Prolog tabanlı paralel çıkarım sistemleri geliştirmeyi ve Japonya'yı bilgi işlem teknolojisinde dünya lideri yapmayı hedefliyordu [2]. Bu duyuru, Batı dünyasında — özellikle ABD ve İngiltere'de — tam anlamıyla bir şok dalgası yarattı; yıllardır durgunluk içindeki yapay zeka araştırmalarına yeniden büyük kaynaklar ayrılmasına, yeni kurumların oluşturulmasına ve stratejik araştırma programlarının başlatılmasına yol açtı [3].

Aynı yıl, Caltech'te fizikçi John Hopfield, Proceedings of the National Academy of Sciences dergisinde yayımladığı bir makaleyle bambaşka bir devrim başlatıyordu [4]. Hopfield, istatistiksel fizik kavramlarını yapay sinir ağlarına uygulayarak, enerji fonksiyonu tabanlı bir çağrışımsal bellek modeli önerdi [4]. Bu model — Hopfield ağı olarak anılacak olan — sinir ağı araştırmalarının on yılı aşkın süredir devam eden "kışını" sona erdirmenin ilk adımıydı. Minsky ve Papert'in 1969'daki Perceptrons kitabıyla fiilen dondurulan bağlantıcı (connectionist) araştırmalar, Hopfield'ın çalışmasıyla yeni bir meşruiyet kazandı [5]. Hopfield'ın modelinin ardından, 1983-1985 yıllarında Geoffrey Hinton ve Terry Sejnowski tarafından geliştirilen Boltzmann makineleri (Boltzmann machines), olasılıksal öğrenme ve gizli katmanlar kavramını sinir ağı literatürüne taşıyarak derin öğrenmenin kavramsal temellerini attı [6].

Bu üç gelişme — FGCS Projesi, Hopfield ağları ve Boltzmann makineleri — birlikte, 1970'lerin "yapay zeka kışının" (AI winter) sona erişini ve yapay zekanın "ikinci baharının" başlangıcını simgelemektedir. Ancak bu yeniden doğuş, homojen bir süreç değildi: FGCS Projesi sembolik yapay zekayı ve mantık programlamayı temsil ederken, Hopfield ağları ve Boltzmann makineleri bağlantıcı paradigmanın yeniden yükselişini simgeliyordu [7]. Bu iki akım arasındaki gerilim, yapay zeka tarihinin en verimli diyalektiklerinden birini oluşturacak ve bir sonraki bölümde ele alacağımız geri yayılım (backpropagation) algoritmasının 1986'daki çığırıyla doruk noktasına ulaşacaktı.

Bir önceki bölümde incelediğimiz Fukushima'nın Neocognitron'u (1980), bağlantıcı araştırmaların buzul çağında sessizce atılmış bir tohumdu; 1982'deki gelişmeler ise bu tohumun filizlenmesi için gerekli entelektüel ve kurumsal iklimi yarattı. Bu bölümde, üç farklı coğrafyada — Tokyo, Pasadena ve Pittsburgh'da — eş zamanlı olarak gerçekleşen bu devrimleri, aralarındaki entelektüel bağlantıları, rekabet dinamiklerini ve kalıcı miraslarını kapsamlı biçimde ele alacağız.

2. Literatür Taraması

1982 döneminin yapay zeka yeniden doğuşu üzerine akademik literatür, bilgisayar bilimi, fizik, nörobilim ve bilim politikası disiplinlerinin kesişiminde zengin bir külliyat oluşturmaktadır.

Hopfield'ın (1982) Proceedings of the National Academy of Sciences dergisindeki orijinal makalesi — "Neural Networks and Physical Systems with Emergent Collective Computational Abilities" — bu dönemin en etkili teknik kaynağıdır [4]. Makale, bir fizikçinin bakış açısıyla sinir ağlarını ele alarak, Ising modeli ve spin cam (spin glass) fiziğinden esinlenen bir çağrışımsal bellek modeli sunmuştur. Bu çalışmanın fizik topluluğundan gelmesi, sinir ağlarına bilgisayar bilimi dışından ciddi bir entelektüel meşruiyet kazandırmıştır [8].

Hinton ve Sejnowski'nin (1983) "Optimal Perceptual Inference" başlıklı konferans bildirisi, Boltzmann makinelerinin ilk formülasyonunu içermektedir [9]. Ancak modelin tam tanımı ve öğrenme algoritması, 1986 yılında Rumelhart, McClelland ve PDP Araştırma Grubu'nun Parallel Distributed Processing (PDP) kitabında yayımlanan "Learning and Relearning in Boltzmann Machines" bölümünde verilmiştir [6]. Bu iki kaynak birlikte, olasılıksal sinir ağlarının ve gizli katman öğrenmesinin kurucu metinleridir. Ackley, Hinton ve Sejnowski'nin (1985) Cognitive Science dergisindeki makalesi, Boltzmann makinelerinin öğrenme algoritmasını sistematik biçimde tanımlayan ilk hakemli yayındır [10].

Edward Feigenbaum ve Pamela McCorduck'ın (1983) The Fifth Generation: Artificial Intelligence and Japan's Computer Challenge to the World kitabı, FGCS Projesi'nin Batı'daki algısını şekillendiren en etkili popüler kaynaklardan biridir [2]. Bu kitap, projeyi bir ulusal güvenlik tehdidi olarak çerçevelemiş ve ABD'nin yapay zeka yatırımlarını artırması için güçlü bir argüman sunmuştur. Projenin iç dinamiklerini daha nesnel biçimde ele alan kaynak ise Shapiro'nun (1983) New Scientist dergisindeki kapsamlı analizidir [11]. FGCS Projesi'nin sonuçlarını eleştirel biçimde değerlendiren kaynaklar arasında Fransman'ın (1993) The Market and Beyond: Cooperation and Competition in Information Technology eseri [12] ve Pollack'ın (1992) değerlendirmesi [13] öne çıkmaktadır.

Minsky ve Papert'in (1969) Perceptrons kitabı, Hopfield ağlarının ve Boltzmann makinelerinin neden bu kadar devrimci karşılandığını anlamak için zorunlu bir arka plan kaynağıdır [14]. Bu kitabın sinir ağı araştırmaları üzerindeki "buzul etkisini" en kapsamlı biçimde belgeleyen çalışma, Olazaran'ın (1996) "A Sociological Study of the Official History of the Perceptrons Controversy" başlıklı bilim sosyolojisi makalesidir [15]. Olazaran, Perceptrons'un teknik sınırlılıklarının ötesinde, sosyolojik ve kurumsal mekanizmalar aracılığıyla bağlantıcı araştırmaları nasıl marjinalleştirdiğini göstermiştir [15].

Stuart Russell ve Peter Norvig'in (2021) Artificial Intelligence: A Modern Approach ders kitabı, 1982 dönemini yapay zeka tarihinin genel çerçevesinde değerlendirmiş ve hem FGCS Projesi'nin hem de bağlantıcı yeniden doğuşun önemini tartışmıştır [7]. Nils Nilsson'ın (2010) The Quest for Artificial Intelligence eseri, Hopfield ağlarının ve Boltzmann makinelerinin bağlantıcılığın yeniden canlanmasındaki rolünü ayrıntılı biçimde ele almıştır [16]. Margaret Boden'ın (2006) Mind as Machine kitabı, bu dönemi bilişsel bilim perspektifinden incelemiş ve sinir ağı araştırmalarının felsefi boyutlarını tartışmıştır [17]. Pamela McCorduck'ın (2004) Machines Who Think eseri, yapay zekanın yeniden doğuşunun hem teknik hem de kültürel dinamiklerini aktarmıştır [18].

Derin öğrenme tarihini kapsamlı biçimde ele alan Schmidhuber'in (2015) Neural Networks dergisindeki derlemesi, Hopfield'dan Boltzmann makinelerine uzanan çizgiyi modern derin öğrenme bağlamında konumlandırmıştır [19]. Goodfellow, Bengio ve Courville'in (2016) Deep Learning ders kitabı, Boltzmann makinelerini modern derin öğrenme tarihçesinin kritik bir halkası olarak ele almıştır [20]. Amit'in (1989) Modeling Brain Function kitabı, Hopfield ağlarının nörobilim boyutunu derinlemesine incelemiştir [21].

Türkçe literatürde, Nabiyev'in (2021) Yapay Zeka ders kitabı, bu dönemin gelişmelerini Türk okuyucuya tanıtmaktadır [22]. Alpaydın'ın (2020) Introduction to Machine Learning eseri, Hopfield ağları ve Boltzmann makinelerini makine öğrenmesi tarihinin bütünü içinde değerlendirmektedir [23]. Roland ve Shiman'ın (2002) Strategic Computing: DARPA and the Quest for Machine Intelligence kitabı, FGCS'ye ABD'nin verdiği stratejik yanıtı belgeleyen en kapsamlı kaynaktır [24].

3. Tarihsel ve Teorik Arka Plan

3a. Yapay Zeka Kışının Anatomisi

1982'deki yeniden doğuşu anlamak için, ondan önceki buzul çağını — "Birinci Yapay Zeka Kışı"nı (yaklaşık 1974–1980) — kavramak gerekmektedir. Bu kış, birden fazla kaynaktan beslenen bir hayal kırıklığı süreciydi.

İlk darbe, 1966'daki ALPAC Raporu ile geldi: Amerikan Ulusal Bilimler Akademisi'nin danışma komitesi, makineli çeviri araştırmalarının vaatlerini yerine getiremediğini bildirdi ve fonlamada keskin bir daralma yaşandı [16]. 1969'da Minsky ve Papert'in Perceptrons kitabı, tek katmanlı sinir ağlarının doğrusal olarak ayrılamayan problemleri çözemeyeceğini matematiksel olarak kanıtlayarak bağlantıcı araştırmaları fiilen dondurdu [14]. 1973'te İngiltere'de Sir James Lighthill'in hazırladığı rapor, yapay zeka araştırmalarının "kombinatorik patlama" sorunu nedeniyle gerçek dünya problemlerini çözemediğini ileri sürerek İngiliz fonlamasını büyük ölçüde kesti [25]. ABD'de DARPA, yapay zeka projelerine olan desteğini azalttı; akademik pozisyonlar daraldı; birçok araştırmacı alanı terk etti [3].

Bu kışın en derin etkisi, sinir ağı araştırmaları üzerinde oldu. Minsky ve Papert'in eleştirisi teknik olarak yalnızca tek katmanlı ağları hedef alıyordu; ancak sosyolojik etkisi çok daha geniş oldu [15]. "Sinir ağları çıkmaz sokak" algısı, fonlama kurumlarından dergi editörlerine kadar geniş bir yelpazede yerleşti [15]. Olazaran'ın (1996) gösterdiği gibi, bu durum klasik bir "bilimsel kara listeye alma" örüntüsüydü: bir paradigmanın teknik eleştirileri, kurumsal mekanizmalar aracılığıyla o paradigmadaki tüm araştırmaları engelleyecek şekilde genelleştirilmişti [15].

3b. Uzman Sistemlerin Yükselişi ve Yarattığı İyimserlik

Yapay zeka kışının tam ortasında, bir alan sessizce büyüyordu: uzman sistemler (expert systems). Stanford Üniversitesi'nde Edward Feigenbaum ve arkadaşlarının geliştirdiği DENDRAL (1965) ve ardından MYCIN (1976), belirli uzmanlık alanlarındaki bilgiyi "eğer-o zaman" kuralları biçiminde kodlayarak pratik sorunları çözebilen programlardı [7]. MYCIN, bakteri enfeksiyonlarının teşhisinde insan uzmanlarla karşılaştırılabilir doğrulukta sonuçlar vererek yapay zekanın "gerçek dünyada işe yaradığını" göstermişti [26].

1980'lerin başında uzman sistemler ticari bir patlama yaşıyordu. R1/XCON sistemi, Digital Equipment Corporation'da (DEC) bilgisayar konfigürasyonunu otomatikleştirerek yılda 40 milyon dolarlık tasarruf sağlıyordu [7]. Bu başarı, iş dünyasının yapay zekaya olan ilgisini yeniden canlandırdı. Uzman sistem şirketleri — IntelliCorp, Teknowledge, Applied Intelligence Systems gibi — kuruldu; risk sermayesi yapay zekaya akmaya başladı [3]. İşte FGCS Projesi, bu yeniden canlanmanın hem bir ürünü hem de en güçlü katalizörüydü.

3c. İstatistiksel Fiziğin Hesaplamaya Açılan Kapısı

Hopfield ağlarını ve Boltzmann makinelerini anlamak için, 1970'lerin fizik dünyasındaki gelişmelere de bakmak gerekir. İstatistiksel mekanik — çok sayıda parçacığın kolektif davranışını inceleyen fizik dalı — 1970'lerde "spin cam" (spin glass) problemleriyle yoğun biçimde uğraşıyordu [8]. Spin camları, manyetik malzemelerdeki düzensiz etkileşimleri modelleyen ve çok sayıda yerel enerji minimumuna sahip karmaşık sistemlerdi [8]. Philip Anderson, Sam Edwards ve diğer fizikçilerin bu alandaki çalışmaları, karmaşık sistemlerdeki kolektif davranış ve enerji peyzajları (energy landscapes) kavramlarını geliştirmişti [21].

Hopfield, bir fizikçi olarak bu araçları doğrudan tanıyordu ve sinir ağları ile spin camları arasındaki yapısal benzerliği fark etmişti: her iki sistem de çok sayıda birbirine bağlı bileşenden oluşuyordu, bileşenler arası etkileşimler çift yönlüydü ve sistemin dinamiği bir enerji fonksiyonunu minimize etme eğilimindeydi [4]. Bu kavramsal köprü, yapay sinir ağlarının analizini fizikçilerin zaten ustalaştığı matematiksel araçlarla — enerji fonksiyonları, denge durumları, faz geçişleri — mümkün kılacaktı [8].

3d. Japonya'nın Teknolojik Yükselişi ve Stratejik Bağlam

FGCS Projesi'nin ortaya çıkışı, 1980'lerin başındaki Japonya'nın ekonomik ve teknolojik bağlamından ayrı düşünülemez. Japon ekonomisi "mucize" olarak adlandırılan bir büyüme dönemi yaşıyordu; otomotiv ve elektronik sektörlerinde ABD'ye meydan okuyordu [2]. Yarı iletken endüstrisinde Japonya, 1980'lerin başında ABD'yi geçmişti [24]. MITI, "stratejik endüstri" politikasıyla koordineli bir teknolojik atılım yönetiyordu ve bilgi teknolojisini bir sonraki stratejik hedef olarak belirlenmişti [12].

Japonya'nın bu stratejik kararlılığı, Batı'da ciddi bir endişe yarattı. Feigenbaum ve McCorduck'ın (1983) kitabı, FGCS Projesi'ni neredeyse askeri bir tehdit olarak çerçevelemiş ve ABD'nin "yapay zeka yarışını" kaybetmesi halinde ekonomik ve stratejik üstünlüğünü yitireceği uyarısında bulunmuştu [2]. Bu "Japon tehdidi" algısı, ABD'de DARPA'nın Stratejik Hesaplama İnisiyatifi'ni (Strategic Computing Initiative — SCI, 1983) ve İngiltere'de Alvey Programı'nı (1983) doğrudan tetikledi [24]. Böylece FGCS Projesi, kendi içeriğinin ötesinde, küresel yapay zeka yatırımlarını katalize eden stratejik bir işlev gördü.

4. Ana Konu Analizi

4a. Beşinci Nesil Bilgisayar Sistemleri Projesi: Mantık Programlamanın Büyük İddiası

Projenin Vizyonu ve Yapısı. FGCS Projesi, MITI'nin yönetiminde kurulan Yeni Nesil Bilgisayar Teknolojisi Enstitüsü (Institute for New Generation Computer Technology — ICOT) tarafından yürütülüyordu [1]. Projenin başına getirilen Kazuhiro Fuchi, Japonya'nın önde gelen bilgisayar bilimcilerinden biriydi [11]. Projenin toplam bütçesi yaklaşık 57 milyar Japon Yeni (dönemin kuruyla yaklaşık 400 milyon ABD doları) olarak planlanmıştı [12].

Projenin teknik vizyonu üç temel sütun üzerine inşa edilmişti [1]. Birincisi, mantık programlama (logic programming): Prolog dilinin genişletilmiş bir versiyonu olan KL1 (Kernel Language 1), sistemin temel programlama dili olacaktı. Bilgi, mantıksal önermeler biçiminde temsil edilecek ve çıkarım mekanizmaları aracılığıyla işlenecekti [11]. İkincisi, paralel çıkarım makineleri (parallel inference machines): Von Neumann mimarisinin ötesine geçen, mantıksal çıkarımı donanım düzeyinde hızlandıran özel işlemciler tasarlanacaktı [1]. Üçüncüsü, bilgi tabanlı sistemler (knowledge-based systems): Doğal dil işleme, konuşma tanıma, görüntü anlama ve uzman sistemler gibi üst düzey yapay zeka uygulamaları geliştirilecekti [2].

Projenin Uluslararası Yankısı. FGCS duyurusu, Batı bilişim dünyasında bir deprem etkisi yarattı. ABD'de DARPA, 1983'te Stratejik Hesaplama İnisiyatifi'ni başlattı — beş yıllık, bir milyar dolarlık bir program [24]. Bu program, otonom araçlar, savaş alanı yönetim sistemleri ve pilotun yardımcısı (pilot's associate) gibi yapay zeka uygulamalarını hedefliyordu [24]. İngiltere'de Alvey Raporu (1982) doğrultusunda 350 milyon sterlinlik Alvey Programı kuruldu [25]. Avrupa Topluluğu, ESPRIT (European Strategic Programme for Research in Information Technology) programını 1984'te başlattı [3]. Tüm bu tepkiler, doğrudan FGCS'nin yarattığı "stratejik tehdit" algısının ürünüydü.

Projenin Teknik Gelişimi ve Zorlukları. ICOT, projenin ilk beş yılında ciddi teknik ilerlemeler kaydetti. Paralel Çıkarım Makinesi (Parallel Inference Machine — PIM) prototipleri geliştirildi; KL1 dili tasarlanıp uygulamaya konuldu; mantıksal programlama alanında önemli araştırma katkıları yapıldı [1]. Ancak projenin temel varsayımları — mantık programlamanın genel amaçlı yapay zeka için yeterli olacağı ve paralel donanımın performans sorunlarını çözeceği — giderek sorgulanır hale geldi [13].

Projenin en temel sorunu, "bilgi darboğazı" (knowledge bottleneck) problemiydi: uzman bilgisini mantıksal önermeler biçiminde kodlamak, öngörülenden çok daha zor ve emek yoğun bir süreçti [7]. Aynı dönemde ABD'de Douglas Lenat'ın Cyc projesi (1984) de aynı sorunla boğuşuyordu — insan sağduyu bilgisini CycL dili aracılığıyla kodlamaya çalışan bu girişim, milyonlarca kural yazılmasına rağmen "sağduyu" düzeyine ulaşamadı [27].

4b. Hopfield Ağları: Fiziğin Sinir Ağlarına Armağanı

John Hopfield ve Entelektüel Arka Planı. John Joseph Hopfield (1933–), Princeton Üniversitesi'nde teorik fizik profesörüydü ve yoğun madde fiziği alanında çalışıyordu [4]. Hopfield'ın sinir ağlarına ilgisi, biyofizik alanındaki çalışmalarından kaynaklanıyordu — nöronların kolektif davranışını fiziksel sistemlerin davranışıyla analoji kurarak anlamaya çalışıyordu [8]. 1982'de Caltech ve Bell Laboratuvarları'nda çalışan Hopfield, sinir ağları ile spin camları arasındaki yapısal benzerliği fark ederek modelini geliştirdi [4].

Hopfield'ın sinir ağlarına yönelmesi, disiplinler arası bir kavramsal transferin mükemmel bir örneğidir. Fizik topluluğu, çok sayıda etkileşen bileşenden oluşan karmaşık sistemleri analiz etmek için güçlü matematiksel araçlar — enerji fonksiyonları, istatistiksel mekanik, faz geçişleri — geliştirmişti [21]. Hopfield, bu araçların sinir ağlarının analizine doğrudan uygulanabileceğini gösterdi [4].

Hopfield Ağının Mimarisi ve Çalışma Prensibi. Hopfield ağı, N adet ikili (0/1 veya -1/+1) nörondan oluşan, tam bağlantılı (her nöron diğer tüm nöronlarla bağlı), simetrik ağırlıklı (w_ij = w_ji) ve geri beslemeli (recurrent) bir ağdır [4]. Bu özelliklerin her biri kritiktir:

Tam bağlantılılık, ağdaki her nöronun diğer tüm nöronların durumundan etkilendiği anlamına gelir — tıpkı bir mıknatıstaki atomların birbirinin manyetik alanından etkilenmesi gibi [8]. Simetrik ağırlıklar, ağın dinamiğinin bir enerji fonksiyonu (Lyapunov fonksiyonu) ile tanımlanabilmesini sağlar [4]:

E = -½ Σ_ij w_ij s_i s_j - Σ_i θ_i s_i

Burada s_i nöron i'nin durumu, w_ij nöronlar arası bağlantı ağırlığı ve θ_i eşik değeridir [4]. Ağ, asenkron güncelleme kuralıyla — her adımda rastgele seçilen bir nöronun durumu, diğer nöronlardan gelen toplam girdiye göre güncellenir — bu enerji fonksiyonunu sürekli olarak azaltır ve sonunda bir yerel minimuma yakınsar [4]. Bu yakınsama garantisi, Hopfield'ın en önemli teorik katkısıdır — ağın davranışının öngörülebilir ve analiz edilebilir olduğunu gösterir [8].

Çağrışımsal Bellek Olarak Hopfield Ağı. Hopfield, modelinin bir içerik-adresli bellek (content-addressable memory) olarak çalıştığını gösterdi [4]. Belirli kalıplar (patterns) ağın ağırlıklarına "depolanabilir" — Hebb kuralının bir versiyonuyla ağırlıklar ayarlanarak, her depolanan kalıp enerji fonksiyonunun bir yerel minimumu haline getirilir [4]. Ağa bozulmuş veya eksik bir kalıp sunulduğunda, ağ dinamiği kalıbı en yakın depolanmış kalıba "çeker" — bozuk bir görüntüyü tamamlamak veya düzeltmek gibi [8]. Bu özellik, insan beyninin çağrışımsal hatırlamasıyla — bir kokudan bir anıyı hatırlamak gibi — kavramsal bir benzerlik taşıyordu [21].

Ancak Hopfield ağının ciddi sınırlılıkları vardı. Ağın güvenilir biçimde depolayabileceği kalıp sayısı, nöron sayısının yalnızca yaklaşık %15'i kadardı (N nöronlu bir ağ için yaklaşık 0.15N kalıp) [8]. Bu kapasitenin ötesinde, ağ "sahte anılar" (spurious memories) — depolanmamış kalıplara karşılık gelen yerel minimumlar — üretmeye başlıyordu [21]. Ayrıca ağın tüm nöronları görünürdü (gizli katman yoktu) ve denetimli öğrenme yapma kapasitesi sınırlıydı [6].

Hopfield Ağının Devrimci Etkisi. Hopfield'ın çalışmasının etkisi, modelin teknik kapasitesinin çok ötesine geçmiştir. Birincisi, fizik topluluğunun sinir ağlarına olan ilgisini canlandırmıştır — fizikçiler, zaten tanıdıkları matematiksel araçlarla sinir ağlarını analiz edebileceklerini fark ettiler [8]. Bu disiplinler arası akış, sinir ağı araştırmalarına yeni bir entelektüel enerji ve meşruiyet kazandırdı [16].

İkincisi, Hopfield'ın Proceedings of the National Academy of Sciences gibi prestijli bir dergide yayın yapması, sinir ağlarının "ciddi bilim" olarak yeniden kabul görmesini sağladı [19]. Minsky-Papert etkisiyle marjinalleşmiş sinir ağı araştırmacıları, Hopfield'ın çalışmasını bir "meşrulaştırma sinyali" olarak karşıladılar [15].

Üçüncüsü, enerji fonksiyonu kavramı, sinir ağlarının analizinde yeni bir paradigma kurdu. Ağın davranışı artık bir "enerji peyzajında yürüyüş" olarak görülebilirdi — tepe ve vadilerden oluşan bir manzarada, sistem sürekli aşağı doğru hareket eder [4]. Bu metafor, hem sezgisel anlam açısından hem de matematiksel analiz açısından son derece verimli oldu ve optimizasyon problemlerinin sinir ağlarıyla çözülmesinin kavramsal temelini attı [8].

4c. Boltzmann Makineleri: Olasılıksal Öğrenmenin Doğuşu

Hinton, Sejnowski ve Kavramsal Atılım. Geoffrey Hinton ve Terry Sejnowski, Hopfield ağının sınırlılıklarını aşmak için radikal bir adım attılar: modele stokastik (olasılıksal) dinamik ve gizli katmanlar eklediler [6]. Hinton, o dönemde Carnegie Mellon Üniversitesi'nde çalışıyordu ve sinir ağlarının öğrenme kapasitesini artırmak için yollar arıyordu [9]. Sejnowski, Johns Hopkins Üniversitesi'nde nörobilim ve hesaplamalı modelleme alanında çalışan bir araştırmacıydı [6].

Boltzmann makinesi adı, istatistiksel mekanikte Boltzmann dağılımından gelmektedir [6]. Ludwig Boltzmann'ın 19. yüzyılda geliştirdiği istatistiksel termodinamik, bir fiziksel sistemdeki parçacıkların enerji dağılımını olasılıksal olarak tanımlıyordu: düşük enerjili durumların yüksek enerjili durumlardan daha olası olduğu, ancak sıcaklık arttıkça yüksek enerjili durumların da belirli bir olasılıkla ziyaret edilebildiği bir çerçeve [20]. Hinton ve Sejnowski, bu fiziksel ilkeyi sinir ağlarına uyguladılar.

Boltzmann Makinesinin Mekanizması. Boltzmann makinesinde, bir nöronun durumu deterministik değil stokastik olarak belirlenir [6]. Bir nöronun "açık" (1) olma olasılığı, Boltzmann (lojistik sigmoid) fonksiyonuyla verilir:

P(s_i = 1) = 1 / (1 + exp(-Δ E_i / T))

Burada Δ E_i, nöronun durumunu değiştirmesinin enerji fonksiyonuna etkisi ve T, "hesaplamalı sıcaklık" (computational temperature) parametresidir [6]. Yüksek sıcaklıkta sistem rastgele davranır — herhangi bir duruma geçebilir; düşük sıcaklıkta ise sistem en düşük enerjili durumlara yerleşme eğilimindedir [10].

Bu stokastik dinamiğin kritik avantajı, "benzetilmiş tavlama" (simulated annealing) tekniğiyle birleştiğinde ortaya çıkar [28]. Sıcaklık yavaşça düşürüldüğünde — metalürjideki tavlama işlemine benzer biçimde — sistem yerel minimumlardan kaçabilir ve küresel minimuma yakınsayabilir [28]. Kirkpatrick, Gelatt ve Vecchi'nin (1983) önerdiği benzetilmiş tavlama algoritması, Hopfield ağının "yerel minimuma takılma" sorununu çözmenin bir yolunu sunuyordu [28].

Gizli Katmanlar ve Öğrenme. Boltzmann makinesinin en devrimci yeniliği, gizli birimler (hidden units) kavramını sinir ağı öğrenmesine tanıtmasıdır [6]. Hopfield ağında tüm nöronlar "görünür" — yani doğrudan gözlemlenebilir — durumdaydı. Boltzmann makinesinde ise nöronlar ikiye ayrılır: görünür birimler (visible units), dış dünyayla etkileşen; gizli birimler, ağın iç temsillerini oluşturan [6]. Gizli birimler, verideki örtük yapıları — "gizli nedenleri" — keşfetmeyi mümkün kılar [10].

Hinton ve Sejnowski, Boltzmann makinesi için bir öğrenme algoritması geliştirdiler [6]. Bu algoritma, ağın istatistiksel davranışını eğitim verilerinin istatistikleriyle eşleştirmeyi hedefler. Öğrenme kuralı şöyledir: bir ağırlığın güncellenmesi, o ağırlıkla bağlı iki nöronun eğitim verileri sunulduğundaki korelasyonları ile "serbest çalışma" durumundaki korelasyonları arasındaki farka orantılıdır [6]:

Δ w_ij ∝ ⟨s_i s_j⟩_data − ⟨s_i s_j⟩_model

Bu kural, matematiksel olarak verinin olabilirliğini (likelihood) maksimize etmeye karşılık gelmektedir [10]. Bu, denetimsiz öğrenme (unsupervised learning) için titiz bir olasılıksal çerçeve sunan ilk sinir ağı modellerinden biriydi [20].

Boltzmann Makinesinin Sınırlılıkları. Boltzmann makinelerinin öğrenme algoritması teorik olarak zarif olsa da, pratik olarak son derece yavaştı [6]. Her öğrenme adımında, hem "tutturulmuş" (clamped) aşamada (veriler sunulduğunda) hem de "serbest" (free-running) aşamada ağın termal dengeye ulaşması gerekiyordu — bu, binlerce stokastik güncelleme adımı demekti [10]. Bu hesaplama maliyeti, Boltzmann makinelerinin pratikte kullanılabilirliğini ciddi biçimde kısıtladı [20]. Bu sınırlılık, 2000'lerde Hinton'ın Kısıtlı Boltzmann Makineleri (Restricted Boltzmann Machines — RBM) ve Zıtlık-Ayrışma (Contrastive Divergence) algoritmasıyla kısmen çözülecekti [29].

4d. Üç Gelişmenin Karşılaştırmalı Analizi

1982 döneminin üç büyük gelişmesi, yapay zekanın farklı vizyonlarını temsil etmektedir.

FGCS Projesi, "bilgiyi açıkça kodla ve mantıksal olarak işle" paradigmasının en iddialı uygulamasıydı — sembolik yapay zekanın doruk noktası [7]. Hopfield ağları, "sistemi fiziksel analoji ile modelle ve enerji minimizasyonu ile çöz" yaklaşımını temsil ediyordu — fiziğin bilgisayar bilimine kavramsal ihracatı [4]. Boltzmann makineleri ise "veriden olasılıksal biçimde öğren" ilkesini somutlaştırıyordu — bugünün makine öğrenmesi paradigmasının erken bir formülasyonu [6].

Bu üç yaklaşım arasındaki gerilim, yapay zekanın en temel sorularına farklı yanıtlar vermekteydi: Zeka, açıkça programlanan kurallarla mı yoksa deneyimden öğrenme ile mi elde edilir? Bilgi, sembollerle mi yoksa ağ ağırlıklarıyla mı temsil edilmelidir? Makineler, mantıksal çıkarım mı yoksa örüntü tanıma mı yapmalıdır? [7]. 1982'de bu soruların yanıtları henüz belirsizdi; sonraki on yıllar, bağlantıcı yaklaşımın giderek artan bir üstünlük kazanacağını gösterecekti.

#### 4e. Genel YZ Tarihindeki Yeri

1982 dönemi, yapay zeka tarihindeki birkaç kritik paradigma değişiminin başlangıç noktasıdır.

Birincisi, Hopfield ağları ve Boltzmann makineleri olmadan, 1986'daki geri yayılım devrimi mümkün olmazdı [7]. Hopfield, sinir ağlarına fizik topluluğunun ilgisini çekti; Boltzmann makineleri, gizli katmanların ve olasılıksal öğrenmenin kavramsal temelini attı; bu zemin, Rumelhart, Hinton ve Williams'ın geri yayılım çalışmasının hem entelektüel hem de kurumsal bağlamını hazırladı [16].

İkincisi, FGCS Projesi, dünya genelindeki yapay zeka yatırımlarını doğrudan tetikledi [24]. ABD'nin Stratejik Hesaplama İnisiyatifi, İngiltere'nin Alvey Programı ve Avrupa'nın ESPRIT programı, FGCS'nin yarattığı rekabet baskısının ürünleriydi [3]. Bu yatırımlar, yapay zeka araştırmalarının 1980'lerdeki canlanmasını finanse eden kurumsal altyapıyı oluşturdu.

Üçüncüsü, Hopfield'ın fiziği bilgisayar bilimine taşıması, disiplinler arası araştırmanın yapay zeka için ne kadar verimli olabileceğini gösterdi [8]. Bu model, 2010'larda fizikçilerin derin öğrenme araştırmalarına yoğun biçimde katılmasının — ve bunun alanı dönüştürmesinin — tarihsel öncülüdür.

5. Eleştirel Değerlendirme

FGCS Projesi: Başarısızlık mı, Başarı mı? FGCS Projesi, 1992'de resmen sona erdiğinde, orijinal hedeflerinin büyük bölümünü gerçekleştirememişti [13]. "Düşünen makineler" yaratılamamıştı; doğal dil işleme ve görüntü anlama hedefleri karşılanamamıştı; paralel çıkarım makineleri ticari olarak başarısız olmuştu [12]. Projenin en somut çıktıları — paralel Prolog uygulamaları ve KL1 dili — akademik bağlamda kalmış, ticarileşememişti [13].

Ancak projeyi düz bir "başarısızlık" olarak etiketlemek, eksik bir değerlendirme olur. Fransman'ın (1993) gösterdiği gibi, FGCS Projesi mantık programlama alanına önemli teknik katkılar yapmış, Japon bilgisayar bilimi topluluğunun uluslararası saygınlığını artırmış ve tüm dünyada yapay zeka araştırmalarının yeniden canlanmasını katalize etmiştir [12]. Projenin dolaylı etkileri — ABD ve Avrupa'daki karşı programlar, yapay zekaya artan küresel ilgi, yeni araştırma kurumlarının oluşması — doğrudan çıktılarından çok daha kalıcı olmuştur [24].

Projenin daha derin bir başarısızlığı, epistemolojik düzeydeydi: mantık programlama ve bilgi tabanlı sistemlerin genel amaçlı yapay zeka için yeterli olmadığı varsayımı, gerçek dünya bilgisinin mantıksal önermelerle kodlanmasının pratik olarak ne kadar zor olduğunu gösterdi [7]. Bu ders, yapay zeka tarihinde tekrarlanan bir kalıptır — açıkça kodlanmış bilgiye dayanan yaklaşımlar, belirli dar alanlarda başarılı olsa da genel zekaya ulaşmakta yetersiz kalmaktadır.

Hopfield Ağlarının Sınırlılıkları. Hopfield ağlarının çağrışımsal bellek olarak kapasitesi sınırlıydı ve ölçeklenme sorunları vardı [21]. Sahte anılar (spurious memories) problemi hiçbir zaman tam olarak çözülemedi [8]. Model, pratik uygulamalarda — örneğin kombinatorik optimizasyon problemlerinde — bazı vaatlere sahip olsa da, performansı tutarsızdı [8].

Ancak bugünden bakıldığında, Hopfield ağının teknik kapasitesinden çok kavramsal katkısı önemlidir. Enerji tabanlı modeller (energy-based models), modern derin öğrenmenin önemli bir alt alanı olmaya devam etmektedir [20]. Hopfield ağının modernize edilmiş versiyonları — örneğin 2020'de Ramsauer ve arkadaşlarının önerdiği "Modern Hopfield Networks" — transformer mimarileriyle bağlantı kurarak yeni bir araştırma alanı açmıştır [30]. Hopfield'ın bu katkıları, 2024 yılında Nobel Fizik Ödülü ile taçlandırılmıştır — yapay sinir ağı araştırmalarının fizik disiplini tarafından tanınmasının en yüksek düzeydeki göstergesi [31].

Boltzmann Makinelerinin Erken Umutları ve Hayal Kırıklıkları. Boltzmann makinelerinin öğrenme algoritması teorik olarak zarif ve matematiksel olarak sağlamdı, ancak pratik kullanımda son derece yavaştı [6]. 1980'ler ve 1990'larda, geri yayılım algoritmasının daha hızlı ve pratik olması nedeniyle, Boltzmann makineleri büyük ölçüde geri planda kaldı [20]. Hinton'ın kendi ifadesiyle, Boltzmann makineleri "güzel bir teori ama çirkin bir pratik" idi [29].

Ancak 2000'lerdeki gelişmeler — özellikle Kısıtlı Boltzmann Makineleri ve katmanlı ön-eğitim (layerwise pre-training) — Boltzmann makinelerinin kavramsal mirasını canlandırdı [29]. Hinton, Osindero ve Teh'in (2006) "A Fast Learning Algorithm for Deep Belief Nets" makalesi, kısıtlı Boltzmann makinelerini derin inanç ağları (deep belief networks) için yapı taşı olarak kullanarak "derin öğrenme" kavramını yeniden gündeme getirdi [29]. Bu gelişme, Boltzmann makinelerinin yirmi yıl gecikmeyle meyvelerini verdiğini göstermektedir.

6. Etik ve Toplumsal Boyutlar

Teknoloji Milliyetçiliği ve Yapay Zeka Yarışı. FGCS Projesi'nin yarattığı en derin toplumsal etki, yapay zeka araştırmalarını ulusal güvenlik ve ekonomik rekabet çerçevesine oturtmasıdır [2]. Feigenbaum ve McCorduck'ın kitabı, yapay zekayı bir "silah yarışı" olarak çerçevelemiş ve bu söylem, ABD'nin DARPA yatırımlarını meşrulaştırmak için kullanılmıştır [24]. Bu dinamik, 2020'lerde ABD-Çin yapay zeka rekabetinde neredeyse birebir tekrar etmektedir — "yarışı kaybetme" söylemi, etik değerlendirmeleri geri plana itme riski taşımaktadır.

Tekelleşme ve Erişim Eşitsizliği. 1982 döneminin yapay zeka yatırımları, büyük devlet kurumları ve büyük şirketler etrafında yoğunlaşmıştır [3]. FGCS Projesi, MITI'nin koordinasyonunda büyük Japon şirketlerini — Fujitsu, Hitachi, NEC, Mitsubishi, Toshiba — bir araya getiriyordu [12]. ABD'de DARPA fonları, Stanford, MIT, Carnegie Mellon gibi seçkin üniversitelere akmıştır [24]. Bu yapı, yapay zeka araştırmalarının küçük üniversiteler, gelişmekte olan ülkeler ve bağımsız araştırmacılar açısından erişilebilirliğini sınırlamıştır. Yapay zeka araştırmalarının coğrafi ve kurumsal yoğunlaşması, günümüzde de süren bir eşitsizlik kalıbının erken bir tezahürüdür.

Askeri Bağlantılar. DARPA'nın Stratejik Hesaplama İnisiyatifi'nin açıkça askeri hedefleri vardı — otonom silah sistemleri, savaş alanı istihbaratı ve komuta-kontrol otomasyonu [24]. Bu durum, yapay zeka araştırmalarının askeri fonlamayla olan karmaşık ilişkisini yeniden gündeme getirdi. Bazı araştırmacılar, askeri fonlamanın araştırma gündemini çarpıttığını ve barışçıl uygulamaların göz ardı edilmesine yol açtığını savunmuşlardır [18]. Bu etik gerilim, yapay zekanın tarihi boyunca tekrarlanan bir temadır.

Beklenti Yönetimi ve Abartı Döngüsü. FGCS Projesi'nin iddialı vaatleri — "düşünen makineler", "doğal dile anlayan bilgisayarlar" — gerçekleşemediğinde, hem kamuoyu hem de fon sağlayıcılar nezdinde hayal kırıklığı yarattı [13]. Bu hayal kırıklığı, 1987–1993 arasında yaşanacak "İkinci Yapay Zeka Kışı"nın — uzman sistem balonunun patlaması, Lisp makine endüstrisinin çöküşü — nedenlerinden biri olacaktır [3]. Abartılı vaatler → hayal kırıklığı → fonlama kesintisi döngüsü, yapay zeka tarihinin en kalıcı ve en az öğrenilen derslerinden biridir.

7. Güncel Uygulamalar ve Miras

Enerji Tabanlı Modeller. Hopfield ağlarının enerji fonksiyonu kavramı, modern derin öğrenmenin "enerji tabanlı modeller" (energy-based models — EBM) alt alanının doğrudan öncülüdür [20]. Yann LeCun'un savunduğu enerji tabanlı öğrenme çerçevesi, çeşitli gözetimli ve gözetimsiz öğrenme yöntemlerini birleştiren genel bir formalizm sunmaktadır [20]. Bu çerçeve, Hopfield'ın 1982'de attığı kavramsal temelin kırk yıl sonraki evrimsel devamıdır.

Kısıtlı Boltzmann Makineleri ve Derin Öğrenme. Hinton'ın 2006'daki derin inanç ağları çalışması, Boltzmann makinelerinin modern derin öğrenme devrimindeki doğrudan rolünü göstermektedir [29]. Kısıtlı Boltzmann Makineleri, öneri sistemlerinde — özellikle Netflix Prize yarışmasında kullanılan işbirlikçi filtreleme modellerinde — pratik başarılar elde etmiştir [20]. Üretken yapay zeka (generative AI) alanındaki modern gelişmeler — değişimsel oto-kodlayıcılar (VAE), üretken çekişmeli ağlar (GAN) ve difüzyon modelleri — Boltzmann makinelerinin "verinin olasılık dağılımını öğrenme" vizyonunun evrimsel torunlarıdır [20].

Hopfield'ın Nobel Mirası. John Hopfield, 2024 yılında Geoffrey Hinton ile birlikte Nobel Fizik Ödülü'nü almıştır [31]. Nobel Komitesi, Hopfield'ın yapay sinir ağlarına enerji fonksiyonu kavramını tanıtmasını ve Hinton'ın Boltzmann makineleriyle olasılıksal öğrenmeyi geliştirmesini ödüllendirmiştir [31]. Bu ödül, 1982'de başlayan kavramsal devrimin kırk yılı aşkın bir süre sonra bilimin en yüksek düzeyinde tanınmasıdır.

Teknoloji Politikası Mirası. FGCS Projesi'nin yarattığı "stratejik rekabet" dinamiği, günümüzde ABD-Çin yapay zeka yarışında birebir tekrar etmektedir. ABD'nin CHIPS and Science Act'i (2022), AB'nin AI Act'i (2024) ve Çin'in "Yeni Nesil Yapay Zeka Geliştirme Planı"nı (2017), doğrudan FGCS döneminin "stratejik tehdit algısı → büyük devlet yatırımı" kalıbının güncel versiyonları olarak görmek mümkündür.

Mantık Programlamanın Mirası. FGCS Projesi başarısız olmuş olsa da, mantık programlama geleneği tamamen ölmemiştir. Prolog, günümüzde bilgi yönetimi, doğal dil işleme ve bazı uzman sistem uygulamalarında hâlâ kullanılmaktadır [7]. "Nöro-sembolik yapay zeka" (neuro-symbolic AI) akımı, sinir ağlarının örüntü tanıma gücü ile sembolik sistemlerin mantıksal çıkarım kapasitesini birleştirmeyi hedeflemektedir — bu akım, FGCS'nin ruhunun modern bir tezahürü olarak yorumlanabilir [7].

8. Bölüm Özeti

1982 yılı, yapay zeka tarihinde bir kırılma noktasıdır. Japonya'nın Beşinci Nesil Bilgisayar Sistemleri Projesi, yapay zeka araştırmalarını ulusal stratejik öncelik haline getirerek dünya genelinde yeniden fonlama ve kurumsal canlanmayı tetiklemiştir. John Hopfield'ın enerji fonksiyonu tabanlı sinir ağı modeli, fizik topluluğunun araçlarını bağlantıcı araştırmalara taşıyarak sinir ağlarının akademik meşruiyetini yeniden tesis etmiştir. Geoffrey Hinton ve Terry Sejnowski'nin Boltzmann makineleri, olasılıksal öğrenme ve gizli katmanlar kavramlarını sinir ağı literatürüne kazandırarak derin öğrenmenin kavramsal temellerini atmıştır.

Bu üç gelişme, yapay zekanın iki temel paradigması — sembolik ve bağlantıcı — arasındaki gerilimi somutlaştırmıştır. FGCS Projesi sembolik yaklaşımın son büyük iddiasını temsil ederken, Hopfield ağları ve Boltzmann makineleri bağlantıcı paradigmanın yeniden doğuşunu simgelemiştir. Tarih, bağlantıcı yaklaşımın — özellikle öğrenme tabanlı yöntemlerin — giderek artan bir üstünlük kazanacağını gösterecektir.

Bu bölümün kitabın genel argümanına katkısı üç düzeydedir: birincisi, yapay zekanın "kıştan bahara" geçiş mekanizmalarını — hem entelektüel yeniliği hem de kurumsal ve siyasi dinamikleri — ortaya koymaktadır; ikincisi, disiplinler arası kavramsal transferin (fizikten bilgisayar bilimine) yapay zeka tarihindeki dönüştürücü rolünü göstermektedir; üçüncüsü, yapay zeka araştırmalarının ulusal rekabet ve stratejik politikayla ilişkisinin ilk büyük örneğini belgelemektedir.

Bir sonraki bölümde ele alacağımız geri yayılım algoritması (1986), Hopfield ağlarının ve Boltzmann makinelerinin açtığı bağlantıcı yolun en etkili meyvesi olacaktır — Rumelhart, Hinton ve Williams'ın Nature makalesinde tanıttıkları algoritma, çok katmanlı sinir ağlarının etkin biçimde eğitilmesini mümkün kılarak yapay zekanın seyrini kalıcı biçimde değiştirecektir.

9. Kaynakça

[1] Moto-oka, T. (Ed.). (1982). Fifth Generation Computer Systems: Proceedings of the International Conference on Fifth Generation Computer Systems. North-Holland.

[2] Feigenbaum, E. A., & McCorduck, P. (1983). The Fifth Generation: Artificial Intelligence and Japan's Computer Challenge to the World. Addison-Wesley.

[3] Crevier, D. (1993). AI: The Tumultuous History of the Search for Artificial Intelligence. Basic Books.

[4] Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences, 79(8), 2554–2558. https://doi.org/10.1073/pnas.79.8.2554

[5] Rumelhart, D. E., McClelland, J. L., & the PDP Research Group. (1986). Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Volume 1: Foundations. MIT Press.

[6] Hinton, G. E., & Sejnowski, T. J. (1986). Learning and relearning in Boltzmann machines. In D. E. Rumelhart, J. L. McClelland, & the PDP Research Group (Eds.), Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Volume 1: Foundations (ss. 282–317). MIT Press.

[7] Russell, S., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4. baskı). Pearson.

[8] Amit, D. J. (1989). Modeling Brain Function: The World of Attractor Neural Networks. Cambridge University Press.

[9] Hinton, G. E., & Sejnowski, T. J. (1983). Optimal perceptual inference. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 448–453.

[10] Ackley, D. H., Hinton, G. E., & Sejnowski, T. J. (1985). A learning algorithm for Boltzmann machines. Cognitive Science, 9(1), 147–169. https://doi.org/10.1207/s15516709cog0901_7

[11] Shapiro, E. (1983). The Fifth Generation Project — a trip report. Communications of the ACM, 26(9), 637–641.

[12] Fransman, M. (1993). The Market and Beyond: Cooperation and Competition in Information Technology Development in the Japanese System. Cambridge University Press.

[13] Pollack, A. (1992, June 5). Fifth Generation becomes Japan's lost generation. The New York Times.

[14] Minsky, M., & Papert, S. (1969). Perceptrons: An Introduction to Computational Geometry. MIT Press.

[15] Olazaran, M. (1996). A sociological study of the official history of the Perceptrons controversy. Social Studies of Science, 26(3), 611–659.

[16] Nilsson, N. J. (2010). The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge University Press.

[17] Boden, M. A. (2006). Mind as Machine: A History of Cognitive Science (Cilt 1–2). Oxford University Press.

[18] McCorduck, P. (2004). Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence (2. baskı). A K Peters.

[19] Schmidhuber, J. (2015). Deep learning in neural networks: An overview. Neural Networks, 61, 85–117. https://doi.org/10.1016/j.neunet.2014.09.003

[20] Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.

[21] Hertz, J., Krogh, A., & Palmer, R. G. (1991). Introduction to the Theory of Neural Computation. Addison-Wesley.

[22] Nabiyev, V. V. (2021). Yapay Zeka: İnsan-Bilgisayar Etkileşimi (6. baskı). Seçkin Yayıncılık.

[23] Alpaydın, E. (2020). Introduction to Machine Learning (4. baskı). MIT Press.

[24] Roland, A., & Shiman, P. (2002). Strategic Computing: DARPA and the Quest for Machine Intelligence, 1983–1993. MIT Press.

[25] Fleck, J. (1982). Development and establishment in artificial intelligence. In N. Elias, H. Martins, & R. Whitley (Eds.), Scientific Establishments and Hierarchies (ss. 169–217). Reidel.

[26] Shortliffe, E. H. (1976). Computer-Based Medical Consultations: MYCIN. Elsevier.

[27] Lenat, D. B., & Guha, R. V. (1990). Building Large Knowledge-Based Systems: Representation and Inference in the Cyc Project. Addison-Wesley.

[28] Kirkpatrick, S., Gelatt, C. D., & Vecchi, M. P. (1983). Optimization by simulated annealing. Science, 220(4598), 671–680. https://doi.org/10.1126/science.220.4598.671

[29] Hinton, G. E., Osindero, S., & Teh, Y.-W. (2006). A fast learning algorithm for deep belief nets. Neural Computation, 18(7), 1527–1554. https://doi.org/10.1162/neco.2006.18.7.1527

[30] Ramsauer, H., Schäfl, B., Lehner, J., Seidl, P., Widrich, M., Adler, T., ... & Hochreiter, S. (2020). Hopfield networks is all you need. arXiv preprint arXiv:2008.02217.

[31] The Royal Swedish Academy of Sciences. (2024). Press release: The Nobel Prize in Physics 2024. https://www.nobelprize.org/prizes/physics/2024/press-release/

10. Tartışma Soruları

1. Analitik: Hopfield'ın fizik topluluğundan gelmesi, sinir ağı araştırmalarının yeniden meşrulaşmasında neden bu kadar etkili olmuştur? Disiplinler arası kavramsal transferin yapay zeka tarihi açısından önemi nedir?

2. Karşılaştırmalı: FGCS Projesi'nin sembolik yaklaşımı ile Hopfield ağlarının ve Boltzmann makinelerinin bağlantıcı yaklaşımı arasındaki temel epistemolojik farklar nelerdir? Bu iki paradigma, "bilgiyi temsil etme" sorusuna nasıl farklı yanıtlar vermektedir?

3. Spekülatif: Eğer FGCS Projesi duyurulmasaydı, ABD ve Avrupa'daki yapay zeka yatırımları 1980'lerde ne düzeyde olurdu? Stratejik rekabet motivasyonu olmadan bağlantıcı araştırmalar yine de canlanabilir miydi?

4. Etik: Yapay zeka araştırmalarının ulusal güvenlik ve askeri rekabet çerçevesinde fonlanması, araştırma gündemini nasıl şekillendirmektedir? DARPA'nın Stratejik Hesaplama İnisiyatifi'nin etik boyutları nelerdir?

5. Güncel: Hopfield ağlarının 1982'deki kavramsal katkılarının 2024'te Nobel Fizik Ödülü ile taçlandırılması, bilimsel katkıların değerlendirilmesinde "zamanlama" sorusunu nasıl gündeme getirmektedir?

6. Karşılaştırmalı: Boltzmann makinelerinin "verinin olasılık dağılımını öğrenme" yaklaşımı ile günümüzün üretken yapay zeka modelleri (GANlar, difüzyon modelleri) arasındaki kavramsal süreklilik nedir?

7. Analitik: FGCS Projesi'nin "başarısızlığının" nedenleri, yapay zeka tarihindeki abartılı vaatler → hayal kırıklığı → fonlama kesintisi döngüsüne nasıl katkıda bulunmuştur? Bu döngü bugün tekrar ediyor mu?

8. Spekülatif: Boltzmann makinelerinin öğrenme algoritması pratik olarak daha hızlı olsaydı, derin öğrenme devrimi 2012 yerine 1990'larda gerçekleşebilir miydi? Bu gecikmenin yapay zeka tarihine maliyeti ne olmuştur?

9. Etik: 1982 döneminin yapay zeka yatırımlarının büyük devlet kurumları ve büyük şirketler etrafında yoğunlaşması, araştırma erişimindeki eşitsizliği nasıl derinleştirmiştir? Bu eşitsizlik kalıbı günümüzde nasıl devam etmektedir?