İkinci Yapay Zekâ Kışı
İkinci yapay zeka kışının nedenleri ve yapay zeka araştırmalarına etkileri.
1. Giriş
1988 yılının başlarında, Business Week dergisi yapay zekâ endüstrisinin durumunu özetleyen çarpıcı bir kapak hikâyesi yayımladı: bir zamanlar milyar dolarlık bir pazar olarak selamlanan uzman sistemler (expert systems) sektörü çökme noktasındaydı [1]. Aynı yıl, Amerika Birleşik Devletleri'nin en büyük LISP makinesi üreticilerinden Symbolics ciddi mali krizle karşı karşıya kaldı; birkaç yıl içinde iflas edecekti [2]. Japonya'nın on yıllık Beşinci Nesil Bilgisayar Sistemleri (Fifth Generation Computer Systems — FGCS) projesi beklenen devrimci sonuçları üretememiş, sessiz bir hayal kırıklığına dönüşmüştü [3]. DARPA (Defense Advanced Research Projects Agency), yapay zekâ araştırmalarına yönelik fonlamayı dramatik biçimde azaltmıştı [4]. Yapay zekâ (YZ) tarihinin en karanlık dönemlerinden biri — İkinci Yapay Zekâ Kışı — artık tam anlamıyla başlamıştı.
İkinci Yapay Zekâ Kışı (yaklaşık 1987–1993), yapay zekâ tarihinin en öğretici krizlerinden biridir. Bu kriz, yalnızca teknolojik bir başarısızlık hikâyesi değil, aynı zamanda bilim politikası, endüstriyel abartı (hype), kurumsal dinamikler ve epistemolojik sınırlılıkların iç içe geçtiği çok katmanlı bir çöküş öyküsüdür [5]. Bir önceki bölümde ele aldığımız Minsky'nin "zekâ tek bir yaklaşımla çözülemez" uyarısı [6], tam da bu çöküşün entelektüel arka planını oluşturmaktadır: 1980'lerin YZ endüstrisi, sembolik paradigmanın — özellikle uzman sistemlerin — tek başına genel zekâya giden yolu açacağı yanılsamasına kapılmıştı.
Bu bölümde, İkinci Yapay Zekâ Kışı'nın çok boyutlu nedenlerini, kronolojik gelişimini, kilit aktörlerini ve kurumsal dinamiklerini, kışın yarattığı entelektüel dönüşümleri ve bu krizin paradoksal biçimde yapay zekânın geleceğini nasıl şekillendirdiğini kapsamlı biçimde inceleyeceğiz. Kışın beş ana nedeni — uzman sistemlerin teknik sınırlılıkları, LISP makinesi pazarının çöküşü, Beşinci Nesil projesinin başarısızlığı, DARPA fonlamasının kesilmesi ve genel beklenti-gerçeklik uçurumu — birbirini besleyen bir kısır döngü oluşturmuştur. Ancak bu krizin karanlığında, Bayesçi yöntemler, istatistiksel öğrenme ve bağlantıcı paradigma gibi alternatif yaklaşımların tohumları da filizlenmeye başlamıştı.
2. Literatür Taraması
İkinci Yapay Zekâ Kışı, yapay zekâ tarihyazımının en çok işlenen temalarından biri olmuştur. Bu dönemi anlamak için farklı perspektiflerden yazılmış geniş bir akademik külliyat bulunmaktadır.
Crevier'in (1993) AI: The Tumultuous History of the Search for Artificial Intelligence eseri, İkinci YZ Kışı'nın en kapsamlı tarihsel anlatılarından birini sunmaktadır [2]. Crevier, uzman sistemler endüstrisinin yükselişini ve çöküşünü birinci elden tanıklıklar ve kurumsal verilerle belgeleyerek, kışın hem teknik hem de sosyoekonomik boyutlarını ortaya koymuştur. Eserin güçlü yanı, aktörlerin kendi ifadelerine geniş yer vermesi ve olayları kronolojik bir anlatı içinde sunmasıdır.
Nilsson'ın (2010) The Quest for Artificial Intelligence kitabı, İkinci YZ Kışı'nı daha geniş bir tarihsel çerçeveye oturtarak, birinci kış (1974–1980) ile karşılaştırmalı bir analiz sunmaktadır [7]. Nilsson, her iki kışın da abartılmış beklentilerin karşılanamamasından kaynaklandığını, ancak ikinci kışın endüstriyel boyutunun çok daha büyük olduğunu vurgulamıştır.
McCorduck'ın (2004) Machines Who Think eseri, İkinci YZ Kışı'nı yapay zekâ topluluğunun sosyolojisi açısından incelemiştir [8]. McCorduck, kışın sadece bir teknoloji krizi değil, aynı zamanda bir "topluluk kimlik krizi" olduğunu ileri sürmüştür: araştırmacılar, çalışmalarına "yapay zekâ" yerine "makine öğrenmesi," "hesaplamalı zekâ" veya "bilgi sistemleri" gibi etiketler yapıştırmaya başlamışlardır.
Hendler'ın (2008) çalışması, İkinci YZ Kışı'nı DARPA'nın fonlama politikaları perspektifinden analiz etmiştir [4]. Hendler, DARPA'nın Stratejik Hesaplama Girişimi'nin (Strategic Computing Initiative — SCI) başarısızlığının kışın tetikleyicilerinden biri olduğunu göstermiştir. Bu çalışma, bilim politikası ve araştırma fonlaması dinamiklerini anlamak için kritik bir kaynaktır.
Feigenbaum ve McCorduck'ın (1983) The Fifth Generation kitabı, Japonya'nın Beşinci Nesil projesinin ABD'de yarattığı paniği ve bu paniğin YZ fonlamasının artmasındaki rolünü belgelemiştir [3]. Bu eser, kışın ironik bir öncüsüdür: projenin vaatleri fonlamayı artırmış, başarısızlığı ise kışı derinleştirmiştir.
Lighthill Raporu (1973) ve birinci YZ kışı üzerine daha önceki bölümlerde ayrıntılı olarak ele aldığımız tartışmalar [9], ikinci kışı anlamak için vazgeçilmez bir karşılaştırma noktası sunmaktadır. Fleck'in (1982) bilgi mühendisliğinin epistemolojik sorunları üzerine çalışması, uzman sistemlerin "bilgi edinim darboğazı" (knowledge acquisition bottleneck) problemini erken dönemde tespit etmiştir [10].
Russell ve Norvig'in (2021) Artificial Intelligence: A Modern Approach ders kitabı, İkinci YZ Kışı'nı genel YZ tarih anlatısı içinde konumlandırarak, kışın ardından gelen paradigma değişimlerini — özellikle olasılıksal yöntemlerin ve makine öğrenmesinin yükselişini — sistematik biçimde ele almıştır [11]. Bu eser, kışın sonuçlarını anlamak için en kapsamlı çağdaş kaynaklardan biridir.
Dreyfus'un (1992) What Computers Still Can't Do kitabı, sembolik YZ'nin felsefi eleştirisini İkinci YZ Kışı bağlamında güncellemiştir [12]. Dreyfus, uzman sistemlerin çöküşünü, kendi yıllardır dile getirdiği eleştirilerin doğrulanması olarak yorumlamıştır. Ancak Dreyfus'un eleştirilerinin, sorunu doğru teşhis edip çözümü yanlış öngörmüş olabileceği — zira bağlantıcı paradigma Dreyfus'un eleştirilerinin çoğunu aşmayı başarmıştır — tartışmalı bir konudur [5].
Haugeland'ın (1985) Artificial Intelligence: The Very Idea eseri, sembolik YZ'nin "Eski Güzel Yapay Zekâ" (Good Old-Fashioned AI — GOFAI) olarak adlandırdığı yaklaşımın kavramsal sınırlılıklarını felsefi bir çerçevede analiz etmiştir [13]. Bu kavram, İkinci YZ Kışı'ndan sonra sembolik paradigmayı tanımlamak için yaygın biçimde kullanılmıştır.
Brooks'un (1991) "Intelligence Without Representation" makalesi, İkinci YZ Kışı'nın entelektüel sonuçlarının en etkili manifestolarından biri olarak kabul edilmektedir [14]. Brooks, sembolik temsile dayanan YZ yaklaşımının başarısız olduğunu savunarak, davranış tabanlı robotiği bir alternatif olarak sunmuştur.
Pearl'ün (1988) Probabilistic Reasoning in Intelligent Systems eseri, İkinci YZ Kışı'nın tam ortasında yayımlanmış olmasına karşın, kışın ardından gelen paradigma değişiminin temellerini atmıştır [15]. Pearl, uzman sistemlerin kesin kurallara dayanan çerçevesinin yerine olasılıksal akıl yürütme yöntemlerini önermiştir.
Türkçe literatürde, Nabiyev'in (2021) Yapay Zekâ ders kitabı, İkinci YZ Kışı'nı genel bir YZ tarihi çerçevesinde ele almıştır [16]. Boden'ın (2006) Mind as Machine eseri ise dönemin en kapsamlı bilişsel bilim ve YZ tarihi çalışması olarak, kışın nedenlerini ve sonuçlarını çok boyutlu biçimde incelemiştir [5].
3. Tarihsel ve Teorik Arka Plan
3a. Uzman Sistemler Çağının Yükselişi (1980–1986)
İkinci Yapay Zekâ Kışı'nı anlamak için, onu doğuran "yapay zekâ yazının" kökenlerine bakmak gerekmektedir. 1980'lerin başında yapay zekâ endüstrisi, uzman sistemlerin vaatleri etrafında dramatik bir büyüme yaşamıştı [2]. Bu büyümenin öncüsü, daha önceki bölümlerde ayrıntılı olarak ele aldığımız MYCIN (1976) ve DENDRAL (1965–1980) gibi akademik prototipler olmuştu [17]. Ancak endüstriyel dönüşümün asıl katalizörü, Digital Equipment Corporation'ın (DEC) R1/XCON sistemi olmuştur: bu sistem, bilgisayar donanımı yapılandırmasını otomatikleştirerek şirketin yıllık 40 milyon dolar tasarruf etmesini sağladığı bildirilmiştir [18]. XCON'un ticari başarısı, uzman sistemlerin iş dünyası için somut değer yaratabildiğini gösteren ilk büyük kanıt olarak algılanmış ve bir yatırım çılgınlığını tetiklemiştir.
1980'lerin ortasına gelindiğinde, uzman sistem endüstrisi yıllık bir milyar doları aşan bir pazar haline gelmişti [2]. IntelliCorp, Teknowledge, Applied Intelligence Systems gibi girişim şirketleri milyon dolarlık yatırımlar almıştı [19]. Büyük danışmanlık firmaları, müşterilerine "yapay zekâ çözümleri" sunmaya başlamıştı. Fortune 500 şirketlerinin üçte ikisinin bir YZ projesi başlattığı veya planladığı tahmin ediliyordu [8].
3b. LISP Makineleri ve Donanım Bağımlılığı
Uzman sistemlerin çoğu LISP programlama dilinde yazılıyordu ve bu sistemlerin verimli çalışması için özel donanıma — LISP makinelerine — ihtiyaç duyuluyordu [2]. Symbolics, Lisp Machines Inc. (LMI) ve Texas Instruments gibi şirketler, bu özel amaçlı bilgisayarları üreterek kârlı bir niş pazar oluşturmuştu [20]. Ancak bu donanım bağımlılığı, uzman sistemler ekosisteminin en kırılgan noktasını oluşturuyordu: LISP makinelerinin fiyatı genellikle 50.000 ile 100.000 dolar arasında değişiyordu ve bu makineler yalnızca LISP tabanlı uygulamalar çalıştırabiliyordu [2].
3c. Beşinci Nesil Projesi ve Uluslararası Rekabet
1982'de Japonya'nın Uluslararası Ticaret ve Sanayi Bakanlığı (MITI), Beşinci Nesil Bilgisayar Sistemleri projesini başlattığında, Batı dünyasında büyük bir endişe dalgası yayılmıştı [3]. Daha önceki bölümlerde ele aldığımız gibi, proje Prolog tabanlı paralel çıkarım makineleri geliştirmeyi ve Japonya'yı bilgi işlem teknolojisinde dünya lideri yapmayı hedefliyordu [3]. Bu proje, ABD'de DARPA'nın Stratejik Hesaplama Girişimi'ni (SCI) ve İngiltere'de Alvey Programı'nı tetiklemiş, Avrupa'da ise ESPRIT programını hızlandırmıştı [4]. Uluslararası rekabetin yarattığı panik, yapay zekâ fonlamasının artmasına katkıda bulunmuş, ancak aynı zamanda gerçekçi olmayan beklentilerin yükselmesine de neden olmuştu.
3d. DARPA ve Stratejik Hesaplama Girişimi
DARPA'nın 1983'te başlattığı Stratejik Hesaplama Girişimi (SCI), on yıllık süre içinde bir milyar doların üzerinde bütçeyle otonom araçlar, anlık konuşma tanıma ve uzman askeri karar destek sistemleri gibi hırslı hedefler koymuştu [4]. Bu hedeflerin çoğu, dönemin teknolojisiyle ulaşılabilecek düzeyin çok ötesindeydi. SCI'nin vaat ettiği "akıllı silahlar" ve "otonom savaş alanı yönetim sistemleri," 1980'lerin teknolojik altyapısıyla gerçekleştirilemeyecek kadar iddialıydı [21].
4. Ana Konu Analizi
4a. Çöküşün Anatomisi: Beş İç İçe Geçmiş Neden
İkinci Yapay Zekâ Kışı, tek bir nedenle değil, birbirini besleyen beş temel faktörün etkileşimiyle ortaya çıkmıştır.
Birinci neden: Uzman sistemlerin teknik sınırlılıkları. Uzman sistemler, bir alandaki uzmanlık bilgisini "eğer-ise" (if-then) kuralları biçiminde kodlayarak bu bilgiyi herkes için erişilebilir kılmayı amaçlıyordu [17]. Ancak bu yaklaşım, birçok temel teknik sorunla karşı karşıyaydı. İlk olarak, "bilgi edinim darboğazı" (knowledge acquisition bottleneck) sorunu vardı: uzman bilgisini kurallar biçiminde çıkarmak ve kodlamak, son derece zaman alıcı ve maliyetli bir süreçti [10]. Bir uzmanın karar verme sürecinin büyük kısmı örtük bilgiye (tacit knowledge) dayanıyordu ve bu bilgiyi açık kurallara dönüştürmek çoğu zaman imkânsızdı [12]. İkinci olarak, "kırılganlık" (brittleness) problemi vardı: uzman sistemler, eğitildikleri dar alan dışına çıkıldığında tamamen başarısız oluyordu [11]. Bir tıbbi teşhis sistemi, kendi alanındaki vakaları iyi çözebilirdi, ancak az da olsa farklı bir durumla karşılaştığında hiçbir "sağduyusal" çıkarım yapamıyordu. Üçüncü olarak, bakım ve güncelleme maliyetleri beklenenden çok daha yüksek çıkmıştı: XCON sistemi, zamanla 10.000'den fazla kurala ulaşmış ve bu kuralların tutarlılığını korumak başlı başına bir mühendislik problemi haline gelmişti [18].
İkinci neden: LISP makinesi pazarının çöküşü. 1987'de, masaüstü iş istasyonları — özellikle Sun Microsystems'in SPARC tabanlı makineleri — fiyat-performans oranında LISP makinelerini geçmeye başladı [2]. Genel amaçlı iş istasyonları hem daha ucuzdu hem de LISP dışında başka uygulamalar da çalıştırabiliyordu. Common LISP'in bu iş istasyonlarında çalışan sürümleri geliştirildikçe, özel amaçlı LISP donanımına olan talep hızla düştü [20]. Symbolics, 1988'de mali kriz yaşamaya başladı ve 1993'te iflas etti [2]. Bu çöküş, yalnızca bir donanım şirketinin başarısızlığı değil, sembolik YZ ekosisteminin temel altyapısının yıkılmasıydı.
Üçüncü neden: Beşinci Nesil Projesinin başarısızlığı. Japonya'nın 400 milyon doların üzerinde yatırım yaptığı FGCS projesi, 1992'de hedeflerine ulaşamadan sona erdi [3]. Proje, paralel Prolog çıkarım makineleri geliştirme konusunda bazı teknik ilerlemeler kaydetmiş olsa da, "düşünen makineler" yaratma vizyonunu gerçekleştiremedi [22]. Projenin başarısızlığı, YZ'nin yakın gelecekte insana eşdeğer zekâ üretebileceği beklentisinin boş olduğunu gösterdi. Shapiro (1992), projenin başarısızlığını mantık programlama paradigmasının pratik sınırlılıklarına bağlamıştır [22].
Dördüncü neden: DARPA fonlamasının kesilmesi. Stratejik Hesaplama Girişimi, 1980'lerin sonunda hedeflerine ulaşamadığı açıkça görülünce, DARPA yapay zekâ fonlamasını önemli ölçüde azalttı [4]. Hendler'ın (2008) belgelediğine göre, DARPA'nın YZ araştırmalarına ayırdığı bütçe 1988 ile 1993 arasında dramatik biçimde küçüldü [4]. Bu durum, akademik YZ araştırmalarını doğrudan etkiledi: birçok üniversitede YZ laboratuvarlarının bütçeleri kesildi, doktora öğrencileri farklı alanlara yönlendirildi ve YZ başlıklı araştırma projeleri fonlama bulmakta zorlandı [8].
Beşinci neden: Beklenti-gerçeklik uçurumu (hype cycle). Belki de en temel neden, 1980'lerin YZ endüstrisinde oluşan abartılmış beklentiler ile gerçeklik arasındaki uçurumdu [5]. Uzman sistemler, iş dünyasına "insan uzmanlığını bilgisayarlara aktarabilecek sihirli bir çözüm" olarak pazarlanmıştı [19]. Bu vaatler, teknolojinin gerçek kapasitesinin çok ötesindeydi. Gartner'ın sonradan kavramsallaştırdığı "abartı döngüsü" (hype cycle) modeli, bu dinamiği açıklamak için ideal bir çerçeve sunmaktadır: şişirilmiş beklentilerin zirvesinden hayal kırıklığı çukuruna düşüş, İkinci YZ Kışı'nın özünü oluşturmaktadır [23].
4b. Kilit Aktörler ve Kurumsal Dinamikler
Symbolics Inc. ve LISP Makineleri Endüstrisi: Richard Greenblatt ve Russell Noftsker tarafından kurulan Symbolics, 1980'lerin en başarılı YZ donanım şirketiydi [2]. Şirketin 3600 serisi LISP makineleri, YZ araştırma laboratuvarlarının standart donanımı haline gelmişti. Ancak 1987'den itibaren genel amaçlı iş istasyonlarının rekabetine dayanamayan Symbolics, hızla pazar payı kaybetti [20]. Şirketin çöküşü, tüm sektörün çöküşünün sembolü olmuştur.
Edward Feigenbaum ve Uzman Sistemler Vizyonu: Stanford Üniversitesi profesörü Feigenbaum, "bilgi mühendisliği" kavramının ve uzman sistemler yaklaşımının en güçlü savunucusuydu [17]. 1977'de başlattığı Heuristic Programming Project ve MYCIN, DENDRAL gibi öncü çalışmalar, uzman sistemlerin akademik temellerini oluşturmuştu. Feigenbaum, 1983'te McCorduck ile yayımladığı The Fifth Generation kitabında ABD'yi Japonya'nın YZ hamlesine karşı uyarmış, bu uyarı fonlamanın artmasına katkıda bulunmuştu [3]. Ancak uzman sistemlerin çöküşü, Feigenbaum'un vizyonunun sınırlılıklarını da ortaya koymuştur.
DARPA ve Askeri Bürokrasi: DARPA'nın Bilgi İşlem Teknolojisi Ofisi (IPTO), 1960'lardan beri ABD'deki yapay zekâ araştırmalarının en büyük fon kaynağıydı [4]. Ancak SCI'nin başarısızlığı, askeri karar vericilerin YZ'ye olan güvenini sarstı. Robert Kahn'ın yönetimindeki DARPA, fonlamayı daha "somut" ve "kısa vadeli" projelere kaydırdı [4]. Bu kayma, temel araştırmadan uygulamaya doğru bir yönelimi temsil ediyordu ve uzun vadeli YZ araştırmalarını olumsuz etkiledi.
Douglas Lenat ve Cyc Projesi: Daha önceki bölümlerde ele aldığımız Cyc projesi, İkinci YZ Kışı'na rağmen devam eden nadir sembolik YZ girişimlerinden biriydi [24]. Lenat, uzman sistemlerin başarısızlığının sağduyu bilgisinin eksikliğinden kaynaklandığını savunarak, insan sağduyusunun tamamını kodlama hedefini sürdürdü. Bu proje, kışın teknik eleştirilerine doğrudan bir yanıt niteliği taşıyordu, ancak kendi hedeflerine ulaşma konusunda da tartışmalı sonuçlar üretti [11].
4c. Kışın Kronolojik Gelişimi
İkinci YZ Kışı'nın başlangıcını tek bir tarihe sabitlemek güçtür, ancak 1987–1988 yılları dönüm noktası olarak kabul edilmektedir [2]. 1987'de LISP makinesi satışlarında dramatik düşüş başladı ve Symbolics mali krizle karşı karşıya kaldı [20]. 1988'de DARPA, Stratejik Hesaplama Girişimi'nin hedeflerini aşağı doğru revize etti ve YZ fonlamasını azaltmaya başladı [4]. 1989'da, birçok YZ girişim şirketi kapandı veya küçüldü; IntelliCorp, Teknowledge ve Applied Intelligence Systems ciddi mali sorunlar yaşadı [19]. 1990–1991 yıllarında, akademik dünyada "yapay zekâ" etiketinden kaçış hızlandı: araştırmacılar, aynı çalışmaları "makine öğrenmesi," "örüntü tanıma," "hesaplamalı zekâ" veya "bilgi keşfi" gibi farklı isimlerle sunmaya başladı [8]. 1992'de Japonya'nın Beşinci Nesil projesi resmen sona erdi ve bu gelişme, uluslararası düzeyde yapay zekâ iyimserliğine son bir darbe daha vurdu [22]. 1993'e gelindiğinde, yapay zekâ endüstrisi dramatik biçimde küçülmüş, akademik YZ araştırmaları ise yeniden yapılanma sürecine girmişti.
4d. Genel YZ Tarihindeki Yeri: Paradigma Değişiminin Katalizörü
İkinci Yapay Zekâ Kışı, paradoksal biçimde, yapay zekânın geleceğini şekillendiren en kritik dönüm noktalarından biri olmuştur. Kışın yarattığı entelektüel boşluk, alternatif paradigmaların yükselmesi için bir fırsat penceresi açmıştır.
İlk olarak, sembolik YZ'nin "bilgi temsili" (knowledge representation) yaklaşımının sınırlılıkları, olasılıksal ve istatistiksel yöntemlerin ön plana çıkmasına zemin hazırlamıştır [15]. Pearl'ün (1988) Bayesçi ağları, uzman sistemlerin kesin kurallarının yerine belirsizlik altında akıl yürütme çerçevesi sunmuştur [15]. Bu yaklaşım, tıbbi teşhisten doğal dil işlemeye kadar geniş bir alanda sembolik yöntemlerin yerini almaya başlayacaktı.
İkinci olarak, kış dönemi, bağlantıcı paradigmanın — bir önceki bölümlerde ele aldığımız geri yayılım devriminin — alanı genişletmesi için bir alan açmıştır [25]. Sembolik YZ'nin gerilemesi, sinir ağı araştırmacılarına hem entelektüel hem de kurumsal olarak daha fazla alan sağlamıştır.
Üçüncü olarak, Brooks'un (1991) davranış tabanlı robotik manifestosu, İkinci YZ Kışı'nın doğrudan bir entelektüel ürünüydü [14]. Brooks, sembolik temsile dayanan YZ'nin çöktüğünü ilan ederek, temsil kullanmayan, gömülü (embodied) ve durumsal (situated) bir zekâ anlayışını savunmuştur.
Dördüncü olarak, kış döneminde Vapnik ve Chervonenkis'in istatistiksel öğrenme teorisi ve destek vektör makineleri (support vector machines) gibi matematiksel temeli güçlü yöntemler geliştirilmiş ve bu yöntemler 1990'ların ikinci yarısında yapay öğrenme alanının merkezine yerleşmiştir [26].
Beşinci olarak, İkinci YZ Kışı, yapay zekâ araştırmalarının metodolojik standartlarını yükseltmiştir [11]. Kışın ardından, YZ topluluğu deneysel değerlendirme, kıyaslama (benchmarking) ve karşılaştırılabilir sonuçlar üretme konusunda çok daha titiz hale gelmiştir. 1990'larda düzenlenen TREC (Text REtrieval Conference), UCI Machine Learning Repository gibi standartlaştırılmış veri setleri ve değerlendirme platformları, kışın yarattığı "hesap verebilirlik" bilincinin doğrudan ürünüdür [11]. Bu metodolojik olgunlaşma, YZ araştırmalarının "demo kültüründen" "bilimsel kanıt kültürüne" geçişini temsil etmektedir.
4e. Kışın İçinde Filizlenen Bahar: Hayatta Kalan Araştırma Programları
İkinci YZ Kışı, tüm yapay zekâ araştırmalarını durdurmamıştır. Bazı araştırma programları, kışın en soğuk dönemlerinde bile gelişmeye devam etmiştir. Judea Pearl'ün UCLA'daki çalışma grubu, Bayesçi ağlar ve nedensellik (causality) üzerine araştırmalarını sürdürmüştür [15]. Carnegie Mellon Üniversitesi'nde Tom Mitchell ve ekibi, makine öğrenmesinin teorik temellerini güçlendirmeye devam etmiştir [11]. AT&T Bell Laboratuvarlarında Yann LeCun, el yazısı rakam tanıma için evrişimli sinir ağlarını (convolutional neural networks) geliştirmiş ve bu çalışma, 1989'da LeNet mimarisinin temellerini atmıştır [25]. Geoffrey Hinton, Toronto Üniversitesi'nde sinir ağları üzerine araştırmalarını — fonlama zorlukları ve akademik skeptisizme rağmen — ısrarla sürdürmüştür [25]. Bu araştırmacılar, kışın sona ermesiyle birlikte yapay zekânın yeniden yükselmesinin öncüleri olacaklardı.
5. Eleştirel Değerlendirme
İkinci Yapay Zekâ Kışı'nın eleştirel bir değerlendirmesi, dönemin hem doğru hem de yanlış teşhislerini birbirinden ayırmayı gerektirmektedir.
Doğru olan: Uzman sistemlerin "kırılgan" olduğu, sağduyu akıl yürütme kapasitesinden yoksun olduğu ve bakım maliyetlerinin sürdürülemez düzeyde yüksek olduğu eleştirileri büyük ölçüde doğru çıkmıştır [11]. Sembolik yaklaşımın tek başına genel amaçlı zekâ üretmeye yetmeyeceği görüşü, günümüzden bakıldığında haklı görünmektedir. Dreyfus'un (1972, 1992) sembolik YZ'nin epistemolojik sınırlılıklarına yönelik felsefi eleştirileri, kış tarafından büyük ölçüde doğrulanmıştır [12].
Yanlış olan: Kışın en büyük hatası, yapay zekânın genel olarak başarısız olduğu sonucuna varılmasıydı. Oysa başarısız olan, yapay zekânın belirli bir paradigması — kesin kurallara dayanan sembolik yaklaşım — idi [5]. Bağlantıcı paradigma, olasılıksal yöntemler ve istatistiksel öğrenme, kışın tam ortasında gelişmeye devam ediyordu. Kış, "YZ'nin sonu" değil, "belirli bir YZ yaklaşımının sonu" olarak okunmalıdır [7].
Gözden kaçırılan: Kışın eleştirel değerlendirmesinde genellikle ihmal edilen bir boyut, kurumsal ve sosyolojik dinamiklerdir. Roland ve Shiman'ın (2002) belgelediğine göre, DARPA'nın fonlama kararları yalnızca teknik değerlendirmelere değil, askeri-politik önceliklere de dayanıyordu [21]. Soğuk Savaş'ın sona ermesi, askeri YZ araştırmalarına olan talebi azaltmıştı. Bu bağlamda, kışın sadece teknik başarısızlıkla değil, jeopolitik değişimlerle de ilişkili olduğu unutulmamalıdır.
Karşılaştırmalı perspektif: Birinci YZ Kışı (1974–1980) ile İkinci YZ Kışı arasında önemli farklar vardır [7]. Birinci kış, büyük ölçüde akademik bir krizdi: Lighthill Raporu ve DARPA fonlama kesintileri, üniversitelerdeki araştırmaları etkilemişti [9]. İkinci kış ise çok daha geniş kapsamlıydı: endüstriyel bir çöküş, uluslararası projelerin başarısızlığı ve akademik alanın yeniden yapılanması bir arada yaşanmıştır. Ancak her iki kış da benzer bir dinamiği paylaşmaktadır: abartılmış beklentilerin karşılanamaması ve bunun ardından gelen güven kaybı [5].
6. Etik ve Toplumsal Boyutlar
İkinci Yapay Zekâ Kışı'nın etik ve toplumsal boyutları, genellikle teknik analiz gölgesinde kalmıştır; ancak bu boyutlar, günümüz YZ tartışmaları için son derece öğreticidir.
"Hype" kültürünün etik sorumluluğu: 1980'lerin YZ endüstrisi, teknolojinin kapasitesini abartarak yatırımcıları, şirketleri ve kamuoyunu yanıltmıştır [19]. Uzman sistemlerin "insan uzmanlığını demokratikleştirecek" vaadi, bu sistemlerin gerçek kapasitesinin çok ötesindeydi. Bu durum, bilim insanları ve mühendislerin topluma karşı olan "dürüstlük" sorumluluğunu gündeme getirmektedir. Kış, abartılmış vaatlerin sadece ekonomik değil, epistemik bir zarar da verebileceğini göstermiştir: kamuoyunun bilime olan güvenini sarsmıştır [8].
İstihdam ve kariyer etkileri: Kışın en acı boyutlarından biri, insan maliyeti olmuştur. Uzman sistem şirketlerinin kapanması ve akademik fonlamanın kesilmesi, yüzlerce araştırmacı ve mühendisin kariyer yolunu değiştirmek zorunda kalmasına yol açmıştır [2]. Doktora öğrencileri, danışmanlarından "yapay zekâ yerine başka bir alan seç" tavsiyesi almaya başlamıştır [8]. Bu durum, bilimsel araştırmanın "döngüsel fonlama" modeline olan bağımlılığının bireysel maliyetlerini gözler önüne sermektedir.
Güç ve erişim eşitsizlikleri: Uzman sistemlerin vadettikleri "uzmanlığın demokratikleştirilmesi" gerçekleşmemişken, bu sistemlere yatırım yapan şirketler kayıplar yaşamıştır. Ancak bu kayıpların dağılımı eşit olmamıştır: büyük şirketler zararlari absorbe edebilirken, küçük şirketler ve bireysel yatırımcılar daha ağır etkilenmiştir [19]. Bu dinamik, teknoloji "hype" döngülerinin eşitsizlik yaratma potansiyelini göstermektedir.
Günümüz YZ tartışmalarına bağlantı: İkinci YZ Kışı'nın dersleri, günümüzde büyük dil modelleri (LLM) etrafında oluşan heyecan dalgası bağlamında son derece günceldir. 1980'lerin uzman sistemleri gibi, günümüzün büyük dil modelleri de bazen gerçekçi olmayan beklentilerle sunulmaktadır [11]. "Bu sefer farklı" söylemi, her teknoloji döngüsünde tekrarlanmakta, ancak abartı-hayal kırıklığı dinamiği yapısal olarak devam etmektedir. Marcus (2022), günümüz YZ "hype" kültürü ile İkinci YZ Kışı arasındaki yapısal benzerliklere dikkat çekmiştir [27].
Bilimsel iletişim ve toplumsal güven: Kışın bir diğer önemli etik boyutu, bilimsel iletişimin kalitesiyle ilgilidir [5]. 1980'lerde medya, uzman sistemlerin kapasitesini abartarak kamuoyunda gerçekçi olmayan beklentiler oluşturmuştur. Araştırmacıların bir kısmı, fonlama almak için bu abartılı söyleme katkıda bulunmuştur. Bu durum, bilim insanlarının popüler medyayla ilişkisinde dikkatli bir denge kurması gerektiğini, teknolojik vaatlerin potansiyel sınırlılıklarıyla birlikte sunulması gerektiğini göstermektedir.
7. Güncel Uygulamalar ve Miras
İkinci Yapay Zekâ Kışı'nın mirası, günümüz yapay zekâ alanının birçok boyutunda hissedilmektedir.
Paradigma çoğulculuğu: Kışın en kalıcı mirası, yapay zekâ araştırmalarında "tek bir yaklaşımın yetmeyeceği" bilincinin yerleşmesidir [11]. Günümüzün YZ alanı, derin öğrenme (deep learning), olasılıksal programlama, sembolik-nöral hibrit sistemler ve takviyeli öğrenme (reinforcement learning) gibi çoklu paradigmaların bir arada var olduğu bir ekosistemdir. Bu çoğulculuk, büyük ölçüde İkinci YZ Kışı'nın sembolik tekçiliğin (monism) başarısızlığından çıkarılan bir derstir [5].
Olasılıksal devrim: Pearl'ün (1988) kışın ortasında yayımladığı Bayesçi ağlar çalışması, uzman sistemlerin "kesinlik" (certainty) varsayımının yerini "belirsizlik altında akıl yürütme" paradigmasının almasının temellerini atmıştır [15]. Günümüzde makine öğrenmesinin istatistiksel temeli, doğrudan bu paradigma değişimine dayanmaktadır.
"YZ kışı" kavramı ve risk yönetimi: "YZ kışı" metaforu, günümüzde de yapay zekâ alanının kolektif bilincinde önemli bir yer tutmaktadır [5]. Araştırmacılar ve yatırımcılar, yeni bir kışın olasılığını sürekli tartışmaktadır. Bu tartışma, alanın "abartı-hayal kırıklığı" döngüsüne karşı bir tür bağışıklık mekanizması geliştirme çabasıdır.
Endüstriyel "hype" döngüsünün yapısı: İkinci YZ Kışı, Gartner'ın "abartı döngüsü" (hype cycle) modelinin en klasik örneklerinden biri olarak kabul edilmektedir [23]. Bu model — teknoloji tetikleyicisi, şişirilmiş beklentilerin zirvesi, hayal kırıklığı çukuru, aydınlanma yokuşu ve verimlilik platosu — günümüzde hem YZ hem de diğer teknoloji alanlarında risk değerlendirmesi için yaygın biçimde kullanılmaktadır.
Akademik "etiket değiştirme" geleneği: Kış döneminde araştırmacıların "yapay zekâ" etiketinden kaçarak çalışmalarını farklı isimlerle sunması, akademik kültürde kalıcı bir iz bırakmıştır [8]. Bugün "makine öğrenmesi," "veri bilimi" ve "yapay zekâ" arasındaki sınırların bulanıklığı, kısmen bu tarihsel etiket değiştirme geleneğinin bir mirasıdır.
8. Bölüm Özeti
İkinci Yapay Zekâ Kışı (yaklaşık 1987–1993), yapay zekâ tarihinin en öğretici krizlerinden biridir. Bu kriz, uzman sistemlerin teknik sınırlılıkları, LISP makinesi pazarının çöküşü, Japonya'nın Beşinci Nesil projesinin başarısızlığı, DARPA fonlamasının kesilmesi ve genel beklenti-gerçeklik uçurumu gibi beş iç içe geçmiş nedenin birleşiminden doğmuştur. Ancak kış, sadece bir çöküş hikâyesi değildir: sembolik YZ paradigmasının tekçiliğini kırarak, olasılıksal yöntemlerin, istatistiksel öğrenmenin ve bağlantıcı paradigmanın yükselmesine zemin hazırlamıştır. Kışın en kalıcı mirası, yapay zekâ araştırmalarında paradigma çoğulculuğunun ve abartıya karşı eleştirel uyanıklığın yerleşmesidir.
Bu bölümün kitabın genel argümanına katkısı şudur: yapay zekânın tarihi, doğrusal bir ilerleme hikâyesi değil, umut ve hayal kırıklığı döngülerinin birbirini izlediği diyalektik bir süreçtir. Her kış, bir sonraki "baharın" entelektüel tohumlarını içinde barındırmıştır. İkinci YZ Kışı'nın karanlığında filizlenen olasılıksal ve istatistiksel yaklaşımlar, ilerleyen bölümlerde ele alacağımız 1990'ların ve 2000'lerin YZ rönesansının temellerini oluşturacaktır.
9. Kaynakça
1. Business Week. (1988, Temmuz). AI: It's here. Business Week kapak hikâyesi.
2. Crevier, D. (1993). AI: The Tumultuous History of the Search for Artificial Intelligence. Basic Books.
3. Feigenbaum, E. A., & McCorduck, P. (1983). The Fifth Generation: Artificial Intelligence and Japan's Computer Challenge to the World. Addison-Wesley.
4. Hendler, J. (2008). Avoiding another AI winter. IEEE Intelligent Systems, 23(2), 2–4. https://doi.org/10.1109/MIS.2008.20
5. Boden, M. A. (2006). Mind as Machine: A History of Cognitive Science (2 vols.). Oxford University Press.
6. Minsky, M. (1986). The Society of Mind. Simon & Schuster.
7. Nilsson, N. J. (2010). The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge University Press.
8. McCorduck, P. (2004). Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence (2nd ed.). A K Peters.
9. Lighthill, J. (1973). Artificial intelligence: A general survey. In Artificial Intelligence: A Paper Symposium. Science Research Council.
10. Fleck, J. (1982). Development and establishment in artificial intelligence. In N. Elias, H. Martins, & R. Whitley (Eds.), Scientific Establishments and Hierarchies (pp. 169–217). D. Reidel.
11. Russell, S., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.
12. Dreyfus, H. L. (1992). What Computers Still Can't Do: A Critique of Artificial Reason. MIT Press.
13. Haugeland, J. (1985). Artificial Intelligence: The Very Idea. MIT Press.
14. Brooks, R. A. (1991). Intelligence without representation. Artificial Intelligence, 47(1–3), 139–159. https://doi.org/10.1016/0004-3702(91)90053-M
15. Pearl, J. (1988). Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference. Morgan Kaufmann.
16. Nabiyev, V. V. (2021). Yapay Zekâ (6. baskı). Seçkin Yayıncılık.
17. Feigenbaum, E. A. (1977). The art of artificial intelligence: Themes and case studies of knowledge engineering. Proceedings of the 5th International Joint Conference on Artificial Intelligence (IJCAI-77), 1014–1029.
18. McDermott, J. (1982). R1: A rule-based configurer of computer systems. Artificial Intelligence, 19(1), 39–88. https://doi.org/10.1016/0004-3702(82)90021-2
19. Newquist, H. P. (1994). The Brain Makers: Genius, Ego, and Greed in the Quest for Machines That Think. Sams Publishing.
20. Sims, K. (1990). LISP machines: A brief history. ACM SIGPLAN Notices, 25(8), 9–11.
21. Roland, A., & Shiman, P. (2002). Strategic Computing: DARPA and the Quest for Machine Intelligence, 1983–1993. MIT Press.
22. Shapiro, E. (1992). The fifth generation project — a trip report. Communications of the ACM, 35(3), 25–34. https://doi.org/10.1145/131295.131297
23. Linden, A., & Fenn, J. (2003). Understanding Gartner's Hype Cycles. Gartner Research.
24. Lenat, D. B., & Guha, R. V. (1990). Building Large Knowledge-Based Systems: Representation and Inference in the Cyc Project. Addison-Wesley.
25. Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533–536. https://doi.org/10.1038/323533a0
26. Vapnik, V. N. (1995). The Nature of Statistical Learning Theory. Springer.
27. Marcus, G. (2022). Rebooting AI: Building Artificial Intelligence We Can Trust (with E. Davis). Pantheon Books.
10. Tartışma Soruları
1. Analitik: Uzman sistemlerin "bilgi edinim darboğazı" (knowledge acquisition bottleneck) sorunu, neden dönemin teknolojisiyle çözülememiştir? Bu sorunun kökeninde hangi epistemolojik varsayımlar yatmaktadır?
2. Karşılaştırmalı: Birinci Yapay Zekâ Kışı (1974–1980) ile İkinci Yapay Zekâ Kışı (1987–1993) arasındaki temel farklar nelerdir? Her iki kışın "abartı-hayal kırıklığı" dinamiği benzer olsa da, ölçekleri ve sonuçları neden bu kadar farklıdır?
3. Spekülatif: Japonya'nın Beşinci Nesil Bilgisayar Sistemi projesi, Prolog yerine LISP ya da farklı bir paradigma üzerine kurulsaydı, projenin kaderi değişir miydi? Yoksa sorun paradigmadan bağımsız olarak "genel amaçlı zekâ" hedefinin o dönemin teknolojisiyle ulaşılamaz olmasında mıydı?
4. Etik: 1980'lerin YZ endüstrisinde abartılmış vaatlerle yatırım çeken şirketlerin ve bu vaatleri destekleyen akademisyenlerin etik sorumluluğu nedir? Bugünkü YZ "hype" kültüründe benzer bir sorumluluk tartışması yapılmalı mıdır?
5. Güncel: İkinci Yapay Zekâ Kışı'nın dinamikleri — abartılmış vaatler, fonlama balonları, teknik sınırlılıkların göz ardı edilmesi — günümüzün büyük dil modelleri (LLM) ekosisteminde tekrarlanıyor olabilir mi? Hangi yapısal benzerlikler ve farklılıklar bulunmaktadır?
6. Karşılaştırmalı: DARPA'nın fonlama kararlarının YZ araştırmalarına etkisi ile Lighthill Raporu'nun etkisi arasında nasıl bir karşılaştırma yapılabilir? Askeri fonlama bağımlılığı, YZ araştırmalarının yönelimini ne ölçüde belirlemiştir?
7. Analitik: İkinci YZ Kışı döneminde "yapay zekâ" etiketinden kaçan araştırmacıların "makine öğrenmesi" veya "bilgi keşfi" gibi alternatif isimler kullanması, yalnızca bir pazarlama stratejisi miydi, yoksa bu isim değişikliği gerçek bir paradigma dönüşümünü mü yansıtmaktaydı?
8. Spekülatif: Pearl'ün Bayesçi ağları (1988) ve Brooks'un davranış tabanlı robotiği (1991) gibi alternatif yaklaşımlar, İkinci YZ Kışı yaşanmasaydı aynı etkiyi yaratabilir miydi? Yoksa kış, bu alternatiflerin yükselmesi için zorunlu bir "yaratıcı yıkım" mıydı?
9. Etik: İkinci YZ Kışı sırasında kariyer yolunu değiştirmek zorunda kalan araştırmacıların deneyimi, bilimsel araştırmanın "döngüsel fonlama" modeline olan bağımlılığının ne tür bireysel ve toplumsal maliyetleri olduğunu göstermektedir? Bu modelin alternatifleri nelerdir?
10. Güncel: Günümüzde "yapay genel zekâ" (AGI) vaatleri etrafında oluşan beklentiler, İkinci YZ Kışı'na yol açan uzman sistemler vaatleriyle yapısal olarak ne kadar benzerdir? Bir "Üçüncü YZ Kışı" olasılığını değerlendirirken hangi göstergeler izlenmelidir?