Lighthill Raporu ve Birinci Yapay Zeka Kışı
Lighthill raporunun yapay zeka araştırmalarına verdiği ağır darbe ve ilk yapay zeka kışı.
1. Giriş
9 Mayıs 1973 akşamı, Londra'nın Albemarle Caddesi'ndeki Royal Institution'ın görkemli konferans salonunda alışılmadık bir entelektüel düello sahneleniyordu [1]. Bir yanda, Cambridge Üniversitesi'nin Lucasian Matematik Profesörü Sir James Lighthill — Newton ve Dirac'ın oturduğu kürsünün o dönemki sahibi, aeroakustik alanının kurucusu, İngiliz uygulamalı matematiğinin en parlak isimlerinden biri — yapay zekanın temel araştırmalarının başarısızlığa mahkûm olduğunu savunuyordu [2]. Karşısında ise Edinburgh Üniversitesi'nden Donald Michie, Stanford'dan John McCarthy ve Bristol'dan Richard Gregory, alanlarının onurunu ve geleceğini savunmak üzere cephe almışlardı [1]. Moderatörlüğünü BBC'nin yaptığı bu tartışma, yalnızca akademik bir fikir alışverişi değildi; yapay zeka araştırmalarının İngiltere'deki ve kısmen tüm dünyadaki kaderini belirleyecek bir kırılma noktasıydı [3].
Lighthill, birkaç ay önce İngiliz Bilim Araştırma Konseyi'ne (Science Research Council — SRC) sunduğu ve "Artificial Intelligence: A General Survey" başlığını taşıyan raporunda, yapay zeka araştırmalarının "büyük vaatlerinin hiçbirinin gerçekleşmediğini" ilan etmişti [4]. Rapor, özellikle robotik ve dil işleme gibi temel araştırma alanlarını hedef alarak, kombinatoryal patlama (combinatorial explosion) probleminin yapay zekanın aşılamaz bir engeli olduğunu ileri sürmüştü [4]. Bu değerlendirme, İngiliz hükümetinin yapay zeka araştırmalarına verdiği desteği iki üniversite dışında tamamen kesmesinin temelini oluşturacaktı [5]. Etkisi İngiltere sınırlarını aşarak, Amerika Birleşik Devletleri'ndeki DARPA fonlarının kısılmasına zemin hazırlayan genel atmosfere katkıda bulunacak ve tarihçilerin "Birinci Yapay Zeka Kışı" (First AI Winter) olarak adlandıracağı 1974–1980 döneminin en sembolik tetikleyicisi olacaktı [6].
Ancak Lighthill Raporu'nu anlamak için yalnızca metnin kendisine bakmak yeterli değildir. Rapor, 1950'lerin sonu ve 1960'ların başındaki sınırsız iyimserliğin — Herbert Simon'ın "on yıl içinde makineler satranç şampiyonu olacak" türünden kehanetlerinin — 1970'lerin başında gerçeklikle yüzleşmesinin bir ürünüdür [7]. ALPAC Raporu'nun (1966) makine çevirisini çöpe atması [8], Minsky ve Papert'in Perceptrons kitabının (1969) sinir ağı araştırmalarını dondurması [9], SHRDLU'nun kısıtlı mikro dünyasının ötesine geçilememesi [10] — tüm bu hayal kırıklıkları birikmiş ve Lighthill Raporu, bu birikimin resmi bir ifadesi haline gelmiştir.
Bu bölümde, Lighthill Raporu'nun hazırlanma sürecini, içeriğini ve üç kategorili yapay zeka sınıflandırmasını; raporun tetiklediği kurumsal ve finansal sonuçları; ABD'deki Mansfield Değişikliği ve DARPA politika dönüşümüyle etkileşimini; Edinburgh Üniversitesi'ndeki iç çatışmaların raporu nasıl şekillendirdiğini; ve Birinci Yapay Zeka Kışı'nın yapay zeka tarihindeki kalıcı mirasını kapsamlı biçimde inceleyeceğiz. Bir önceki bölümde ele aldığımız SHRDLU ve Prolog — doğal dil anlama ve mantık programlamanın doğuşu — bu bölümde tartışacağımız krizi doğrudan besleyen başarı-başarısızlık diyalektiğinin somut örnekleridir [10]. Bir sonraki bölümde işleyeceğimiz John Searle'ün Çin Odası argümanı ise bu kışın entelektüel ikliminde filizlenen felsefi sorgulamanın doruk noktası olacaktır.
2. Literatür Taraması
Lighthill Raporu ve Birinci Yapay Zeka Kışı üzerine akademik literatür, bilim politikası tarihi, yapay zeka tarihi ve bilgi felsefesinin kesişim noktasında zengin bir külliyat oluşturmaktadır.
Birincil kaynak olarak Lighthill'in (1973) "Artificial Intelligence: A General Survey" raporu, SRC tarafından yayımlanan Artificial Intelligence: A Paper Symposium kitapçığında yer almaktadır [4]. Bu kitapçık, raporun yanı sıra Stuart Sutherland, Roger Needham, Christopher Longuet-Higgins ve Donald Michie'nin yanıt yazılarını da içermekte ve dönemin akademik tartışmasını birincil ağızdan belgelemektedir [11]. McCarthy'nin (1973) Stanford'dan yayımladığı "Review of 'Artificial Intelligence: A General Survey'" metni, Lighthill'in teknik eleştirilerini — özellikle satranç programları ve kombinatoryal patlama konusundaki değerlendirmelerini — sistematik biçimde çürütmeye çalışan en kapsamlı yanıttır [12].
Yapay zeka tarihinin genel çerçevesinde Daniel Crevier'in (1993) AI: The Tumultuous History of the Search for Artificial Intelligence eseri, Lighthill Raporu'nun hazırlanma sürecini, Edinburgh'daki iç çatışmalarla ilişkisini ve İngiliz bilim politikası üzerindeki etkisini en ayrıntılı biçimde belgeleyen kaynaklardan biridir [3]. Crevier, raporun yalnızca teknik bir değerlendirme olmadığını, aynı zamanda kurumsal politikaların ve kişisel çekişmelerin bir ürünü olduğunu vurgulamıştır. Pamela McCorduck'ın (2004) Machines Who Think eseri, Lighthill tartışmasını yapay zekanın kültürel algısı bağlamında ele almış ve raporun medya tarafından nasıl araçsallaştırıldığını incelemiştir [13]. Nils Nilsson'ın (2010) The Quest for Artificial Intelligence kitabı, paradoks biçiminde, 1970'lerin yapay zeka araştırmaları açısından en "heyecan verici" dönem olduğunu savunmuş ve "yapay zeka kışı" anlatısının abartılmış olabileceğini ileri sürmüştür [14].
Margaret Boden'ın (2006) Mind as Machine: A History of Cognitive Science adlı kapsamlı eseri, Lighthill Raporu'nu bilişsel bilim tarihi açısından değerlendirmiş ve Longuet-Higgins'in rapor sürecindeki rolünü — "bilişsel bilim" terimini icat etmesini — belgelemiştir [15]. Stuart Russell ve Peter Norvig'in (2021) Artificial Intelligence: A Modern Approach ders kitabı, Lighthill Raporu'nu modern yapay zeka kavramları çerçevesinde tartışarak, kombinatoryal patlama eleştirisinin geçerliliğini ve sınırlılıklarını değerlendirmiştir [16]. Hubert Dreyfus'un (1972) What Computers Can't Do eseri, Lighthill'den bağımsız olarak ama neredeyse eşzamanlı olarak yapay zekanın temel varsayımlarını fenomenolojik açıdan eleştirmiş ve bu eleştiri, Lighthill Raporu'nun entelektüel iklimini besleyen kaynaklardan biri olmuştur [17].
Jon Agar'ın (2020) The British Journal for the History of Science'da yayımlanan "What is Science For? The Lighthill Report on Artificial Intelligence Reinterpreted" makalesi, raporun ardındaki motivasyonları yeniden yorumlayan en önemli güncel çalışmadır [18]. Agar, Lighthill'in yapay zeka eleştirisinin arkasında, kariyeri boyunca savunduğu bir ilkenin — en iyi araştırmanın pratik uygulamalarla sıkı sıkıya bağlı olması gerektiği inancının — yattığını savunmuştur [18]. Thomas Haigh'in (2023) çalışması, 1970'lerde yapay zeka alanında gerçek bir "kış" yaşanıp yaşanmadığını sorgulamış ve ACM SIGART üyelik verilerine dayanarak profesyonel ilginin azalmak yerine arttığını göstermiştir [19]. Bu revizyonist yorum, "yapay zeka kışı" kavramının kapsamını ve sınırlarını yeniden düşünmeye davet etmektedir.
Hans Moravec'in Crevier'e (1993) aktardığı birincil tanıklıklar, DARPA'nın yapay zeka araştırmalarına bakışındaki dönüşümü araştırmacı perspektifinden belgeleyen değerli bir kaynaktır [6]. Norberg ve O'Neill'in (1996) DARPA tarihi üzerine çalışması, Mansfield Değişikliği'nin araştırma fonlama politikalarını nasıl dönüştürdüğünü kurumsal düzeyde analiz etmiştir [20]. Türkçe literatürde Nabiyev'in (2021) Yapay Zeka ders kitabı, yapay zeka kışlarını Türk okuyucuya tanıtan temel kaynaktır [21]. Saygin ve diğerlerinin (2000) Turing testi üzerine derlemesi ise Lighthill Raporu'nun dolaylı olarak beslediği "makineler düşünebilir mi" tartışmasının felsefi boyutlarını ele almıştır [22].
3. Tarihsel ve Teorik Arka Plan
3a. Vaatler Çağı: 1956–1970
Lighthill Raporu'nun arka planını anlamak için, yapay zekanın "altın çağı" olarak adlandırılan 1956–1970 dönemine dönmek gerekmektedir. 1956 Dartmouth Konferansı'nda John McCarthy, Marvin Minsky, Allen Newell ve Herbert Simon, "yapay zeka" terimini resmen ortaya koyarak alanı kurmuşlardı [16]. Bu kurucu figürler, bilgisayarların yakın gelecekte insan düzeyinde zeka sergileyeceğine dair cesur tahminlerde bulunmuşlardı. Simon, 1957'de "dünyada artık düşünen, öğrenen ve yaratan makineler var" demiş ve on yıl içinde bilgisayarların satranç dünya şampiyonunu yeneceğini, önemli matematiksel teoremleri kanıtlayacağını öngörmüştü [7]. Minsky ise 1967'de "bir nesil içinde yapay zeka problemi büyük ölçüde çözülmüş olacak" tahmininde bulunmuştu [23].
Bu iyimserliğin arkasında somut başarılar vardı. Newell ve Simon'ın Logic Theorist programı (1956) matematiksel teoremleri kanıtlamış [24]; General Problem Solver (1959) araç-amaç analizi yöntemiyle çeşitli problemleri çözmüştü [25]. Weizenbaum'un ELIZA'sı (1966) insanlarla "sohbet" edebilen bir program olarak kamuoyunu etkilemişti [16]. DARPA (o dönemde ARPA), 1963'ten itibaren MIT, Stanford ve Carnegie Mellon'a her yıl milyonlarca dolar aktarıyordu ve J.C.R. Licklider'ın felsefesi — "projeleri değil, insanları fonla" — araştırmacılara neredeyse sınırsız bir entelektüel özgürlük tanıyordu [20].
Ancak 1960'ların sonlarında çatlaklar belirmeye başlamıştı. 1966 ALPAC Raporu, ABD Ulusal Araştırma Konseyi'nin makine çevirisi programını — yirmi milyon dolar harcanmasına rağmen — başarısız ilan ederek fonları kesmişti [8]. Minsky ve Papert'in 1969 tarihli Perceptrons kitabı, tek katmanlı sinir ağlarının temel sınırlılıklarını matematiksel kesinlikle göstermiş ve yapay sinir ağı araştırmalarını neredeyse on yıl boyunca dondurmuştu [9]. Bu kitabın etkisi, çok katmanlı ağların bu sınırlılıklardan muaf olduğunun bilinmesine rağmen büyük olmuştu, çünkü o dönemde çok katmanlı ağları eğitecek bir yöntem (geri yayılım algoritması) henüz geliştirilmemişti [16].
3b. Edinburgh Çatışması: Raporun Kurumsal Arka Planı
Lighthill Raporu'nun hazırlanma sürecini anlamak için, Edinburgh Üniversitesi'ndeki iç çatışmalara bakmak zorunludur. SRC'nin raporu sipariş etme kararı, kısmen Edinburgh'daki Makine Zekası ve Algılama Bölümü'ndeki (Department of Machine Intelligence and Perception — DMIP) yoğun anlaşmazlıkların bir sonucuydu [1]. DMIP, 1966'da Donald Michie, Christopher Longuet-Higgins ve Richard Gregory tarafından kurulmuştu [26]. Ancak bu üç kurucu, yapay zekanın doğası ve amaçları konusunda temelden farklı görüşlere sahipti. Michie, "akıllı robotlar" inşa etmeye odaklanıyordu; Longuet-Higgins ise bilişsel süreçlerin bilgisayar modellemesiyle anlaşılabileceğine inanıyor ve kendi grubuna "Kuramsal Bölüm" (Theoretical Section) adını vermişti [26]. Gregory, 1970'te Bristol'a ayrılmış, Longuet-Higgins ile Michie arasındaki anlaşmazlık ise giderek derinleşmişti [27].
Bu bağlamda son derece çarpıcı bir biyografik ayrıntı bulunmaktadır: Lighthill ve Longuet-Higgins, Winchester College'da birlikte okumuş çocukluk arkadaşlarıydı [28]. Her ikisi de on beş yaşında Trinity College Cambridge'e burs kazanmıştı [2]. SRC'nin, yapay zekayı değerlendirmek üzere alanın dışından ama Longuet-Higgins'in yakın tanıdığı bir ismi seçmesi, dönemin araştırmacılarında ciddi soru işaretleri yaratmıştı [28]. Nitekim rapor yayımlandığında Michie şiddetli bir savunma kaleme alırken, Longuet-Higgins Lighthill'in safında yer almış ve yanıt yazısında "bilişsel bilim" (cognitive science) terimini ilk kez kullanarak, kendi araştırma vizyonunu yapay zekadan ayırmıştı [15].
3c. Mansfield Değişikliği ve ABD'deki Politik Dönüşüm
Atlantik'in öte yakasında, yapay zeka araştırmalarını etkileyen bir başka yapısal dönüşüm yaşanıyordu. 1969'da ABD Kongresi, Vietnam Savaşı'nın yarattığı "askeri-endüstriyel kompleks" eleştirilerinin ortasında Mansfield Değişikliği'ni (Mansfield Amendment) kabul etti [20]. Bu değişiklik, Savunma Bakanlığı'nın — ve dolayısıyla DARPA'nın — yalnızca "doğrudan askeri uygulamaya yönelik" araştırmaları fonlamasını zorunlu kılıyordu [29]. Değişiklik bir yıl içinde geri çekilmiş olsa da, mesaj açıktı: DARPA artık temel araştırmaya sınırsız fon akıtamayacaktı [29]. Lawrence Roberts'ın IPTO (Bilgi İşlem Teknolojileri Ofisi) müdürlüğüne atanmasıyla birlikte, yapay zeka araştırmaları bütçe kalemleri halinde raporlanmaya ve somut askeri çıktılar cinsinden gerekçelendirilmeye başlandı [20].
4. Ana Konu Analizi
4a. Raporun İçeriği: Üç Kategorili Yapay Zeka Sınıflandırması
Lighthill, raporunu yapay zeka araştırmalarını üç kategoriye ayıran bir çerçeve üzerine inşa etti [4]. Bu çerçeve, raporun hem gücünün hem de en çok eleştirilen yönünün kaynağıdır.
Kategori A — İleri Otomasyon (Advanced Automation). Bu kategori, yapay zeka tekniklerinin mühendislik ve endüstriyel uygulamalarda kullanılmasını kapsamaktadır [4]. Optik karakter tanıma, mekanik tasarım optimizasyonu ve kontrol sistemleri gibi alanlar bu kategoride yer alır. Lighthill, Kategori A'yı genel olarak olumlu değerlendirmiş ve bu tür uygulamaların meşru mühendislik katkıları sağladığını kabul etmiştir [12]. Bu değerlendirme, yapay zekanın dar ve iyi tanımlanmış problemlerde başarılı olabileceğini teslim etmesi bakımından önemlidir.
Kategori C — Merkezi Sinir Sistemi Araştırması (Central Nervous System Research). İnsan beyninin ve bilişsel süreçlerin bilgisayar modelleriyle incelenmesi bu kategoride yer almaktadır [4]. Yapay sinir ağları, nörobiyolojik modeller ve psikolojik süreçlerin simülasyonu bu kapsamdadır. Lighthill, Kategori C'yi de desteklemiş ve bu araştırmaların psikoloji ile nörobilimle bütünleştirilmesi halinde değerli bilimsel katkılar sağlayabileceğini belirtmiştir [11]. Özellikle Winograd'ın SHRDLU programının, dilin anlam boyutunun salt sözdizimsel olmadığını göstermesini psikolinguistik açısından önemli bir katkı olarak değerlendirmiştir [4].
Kategori B — Köprü Alanı (Bridge Activities). A ile C arasında köprü kurmayı hedefleyen araştırmalar — robotik, satranç programları, sağduyu problem çözme, doğal dil anlama sistemlerinin genişletilmesi — bu kategoride yer almaktadır [4]. İşte Lighthill'in en sert eleştirileri bu kategoriye yönelmiştir. Rapor, Kategori B araştırmalarının "büyük vaatlerinin hiçbirinin gerçekleşmediğini" ve bu alanda kamu fonlarının verimsiz kullanıldığını ileri sürmüştür [4]. Lighthill, "genel amaçlı bir robotun" — el-göz koordinasyonu ile sağduyu problem çözmeyi birleştiren bir sistemin — inşasının "tamamen hayal kırıklığı" yarattığını ve bu projelerin terk edilmesi gerektiğini savunmuştur [12].
Lighthill'in Kategori B eleştirisinin merkezinde kombinatoryal patlama (combinatorial explosion) problemi bulunmaktadır [4]. Raporun temel argümanına göre, yapay zeka teknikleri küçük ve kontrollü "oyuncak dünyalarda" (toy worlds) çalışabilmekte, ancak gerçek dünya problemlerine ölçeklendiğinde olası durum uzayının üstel biçimde büyümesiyle çökmektedir [16]. Bir satranç oyununda bile olası hamle kombinasyonlarının astronomik sayılara ulaşması, 1970'lerin bilgisayar kapasitesiyle bu karmaşıklığın üstesinden gelinmesini imkânsız kılıyordu [12]. Lighthill, bu sınırlılığın salt bir donanım sorunu olmadığını, yapay zekanın temel algoritmik yaklaşımlarının yapısal bir kusuru olduğunu ileri sürmüştür [4].
4b. Kilit Aktörler ve Katkıları
Sir James Lighthill (1924–1998). Raporun yazarı olan Lighthill, yirminci yüzyılın en seçkin İngiliz uygulamalı matematikçilerinden biriydi [2]. Paris'te doğmuş, Winchester College ve Cambridge Trinity College'da eğitim almıştı [2]. Aeroakustik alanının kurucusu olarak, jet motorlarının gürültüsünü azaltmaya yönelik "Lighthill'in sekizinci kuvvet yasası"nı formüle etmişti [30]. 1969'da Paul Dirac'ın ardından Cambridge'in Lucasian Matematik Profesörlüğü'ne atanmış — bu kürsünün bir sonraki sahibi Stephen Hawking olacaktı [2]. Lighthill, yapay zeka alanına hiçbir önceki bağlantısı olmadığını açıkça belirterek, "iki aylık bir literatür taraması ve alan uzmanlarıyla görüşmeler" sonucunda raporunu hazırladığını ifade etmiştir [4]. Bu "dışarıdan bakış" iddiası, raporun hem güçlü hem de zayıf yönü olarak değerlendirilmiştir: tarafsızlık sağlasa da, alanın nüanslarını kaçırma riskini beraberinde getirmiştir [18].
Donald Michie (1923–2007). Edinburgh Üniversitesi'nde Makine Zekası Profesörü olan Michie, Bletchley Park'ta Alan Turing ile birlikte şifre kırma çalışmalarına katılmış bir öncü araştırmacıydı [26]. Freddy robotu — nesneleri tanıyıp montaj yapabilen öncü bir sistem — Michie'nin en bilinen projelerinden biriydi [31]. Lighthill Raporu'na karşı en güçlü savunmayı yapan isim olarak, raporun teknik değerlendirmelerinin yüzeysel olduğunu ve yapay zeka araştırmalarının uzun vadeli potansiyelini göz ardı ettiğini savunmuştur [11]. Royal Institution tartışmasında Lighthill ile doğrudan karşı karşıya gelen Michie, raporun ardından fonları büyük ölçüde kesilmiş ve araştırma birimi bağımsız bir "Makine Zekası Araştırma Birimi"ne dönüştürülmüştür [26].
John McCarthy (1927–2011). Stanford Üniversitesi Yapay Zeka Laboratuvarı müdürü ve "yapay zeka" teriminin mucidi olan McCarthy, Lighthill tartışmasına Atlantik ötesinden katılan en etkili isimdi [12]. Stanford'dan yayımladığı kapsamlı yanıtta, Lighthill'in satranç programları hakkındaki teknik değerlendirmelerinin — örneğin sezgisellerin yalnızca değerlendirme fonksiyonunda somutlaştığı iddiasının — yanlış olduğunu göstermiştir [12]. McCarthy, satrancın "yapay zekanın Drosophila'sı" olduğunu — yani biyolojideki meyve sineği gibi temel mekanizmaları test etmek için bir laboratuvar ortamı sağladığını — savunmuştur [12].
Christopher Longuet-Higgins (1923–2004). Kuramsal kimyacı olarak Royal Society üyesi seçilmiş, ardından bilişsel süreçlerin bilgisayar modellemesine yönelmiş bir bilim insanıydı [15]. Lighthill'in çocukluk arkadaşı olarak rapora yanıt yazma fırsatı verildiğinde, beklenmedik biçimde Lighthill'in safında yer almış ve "bilişsel bilim" (cognitive science) terimini bu yanıt yazısında ilk kez kullanarak, kendi çalışmalarını yapay zekadan ayırmıştır [15]. 1974'te Edinburgh'dan ayrılarak Sussex Üniversitesi'ne geçmiştir [27].
4c. Royal Institution Tartışması: Mayıs 1973
9 Mayıs 1973'te Royal Institution'da gerçekleşen ve BBC tarafından kaydedilen tartışma, yapay zeka tarihinin en dramatik sahnelerinden biridir [1]. Lighthill, yapay zeka araştırmacılarının "oyuncak dünyada" çalıştığını ve "gerçek dünyanın karmaşıklığıyla" başa çıkamadıklarını savunmuştur [1]. Michie, Edinburgh'da geliştirilen Freddy robotunun videosunu göstererek somut başarıları kanıtlamaya çalışmış; ancak Lighthill, robotun "bir oyuncak araba ve oyuncak gemi ile küçük bir söylem evreninde" çalıştığını belirterek bu gösterimi kendi argümanının bir kanıtı olarak yorumlamıştır [1]. McCarthy, Lighthill'in kombinatoryal patlama sorununu sanki yeni keşfedilmiş bir fenomenmiş gibi sunmasını eleştirmiş ve aslında yapay zeka araştırmacılarının bu sorunla baştan beri mücadele ettiğini, probleme özgü sezgisel yöntemlerin (heuristics) geliştirilmesinin alanın temel çabasını oluşturduğunu vurgulamıştır [12]. Gregory ise yapay zeka araştırmalarının insan bilişinin karmaşıklığını ortaya çıkarmaktaki değerini savunmuş, ancak yapay sinir ağlarının uzun vadede en önemli araştırma yönü olduğunu da belirtmiştir [1].
Tartışma, akademik bir çıkmaz ile sonuçlanmıştır. Lighthill, raporun sonuçlarından geri adım atmamış; yapay zeka araştırmacıları ise eleştirilerin yüzeysel ve haksız olduğu görüşünü korumuşlardır [3]. Ancak politik sonuç açıktı: SRC, raporu resmi politika belgesi olarak kabul etmiş ve İngiliz yapay zeka araştırmalarının geleceği kararmıştır [5].
4d. Raporun Kurumsal ve Finansal Sonuçları
Lighthill Raporu'nun en somut etkisi, İngiliz hükümetinin yapay zeka araştırmalarına verdiği desteği radikal biçimde kesmesi olmuştur [5]. SRC, yapay zeka araştırmalarını yalnızca Edinburgh ve Sussex üniversitelerinde desteklemeye devam etmiş; diğer tüm İngiliz üniversitelerinde yapay zeka fonları kesilmiştir [3]. Edinburgh'da bile destek önemli ölçüde azaltılmış, bölüm yeniden yapılandırılmış ve Michie'nin araştırma grubu bağımsız bir birime dönüştürülmüştür [26].
Raporun etkisi İngiltere sınırlarını da aşmıştır. ABD'de DARPA, zaten Mansfield Değişikliği'nin etkisiyle temel araştırmadan uzaklaşıyordu; Lighthill Raporu ve DARPA'nın kendi iç değerlendirmesi (American Study Group), bu eğilimi güçlendirmiştir [6]. 1974'e gelindiğinde yapay zeka projeleri için fon bulmak son derece zorlaşmıştır [6]. Hans Moravec'in tanıklığına göre, DARPA personelinin bir kısmı yapay zeka araştırmacılarına "ders verilmesi" gerektiğini düşünüyordu: "Bazı insanların yılda iki milyon dolarlık kontratları neredeyse sıfıra indirilecekti" [6]. DARPA, Carnegie Mellon Üniversitesi'ndeki Konuşma Anlama Araştırması (Speech Understanding Research) programından yıllık üç milyon dolarlık desteğini çekmiştir [32].
Ancak burada bir nüans önemlidir: fon kesintileri ağırlıklı olarak MIT, Stanford, Carnegie Mellon ve Edinburgh gibi büyük merkezleri etkilemiştir [14]. Bu kurumlar dışındaki binlerce araştırmacı ve alana yeni katılanlar, kesintilerden doğrudan etkilenmemiştir [14]. ACM'nin yapay zeka özel ilgi grubu SIGART'ın üyelik verileri, 1973'te 1.241 üyeye ulaştığını — 1969'dakinin yaklaşık iki katını — göstermektedir [19]. Bu veri, "kış" kavramının kapsamının tartışmalı olduğuna işaret etmektedir: kurumsal düzeyde ciddi bir daralma yaşanmış olsa da, alanın entelektüel büyümesi tamamen durmamıştır.
4e. Yapay Zeka Kışı'nın Boyutları
"Yapay Zeka Kışı" terimi, ilk kez 1984'te AAAI (American Association for Artificial Intelligence) yıllık toplantısında Roger Schank ve Marvin Minsky tarafından bir kamuoyu tartışmasının konusu olarak kullanılmıştır [6]. Schank ve Minsky, 1980'lerdeki yapay zeka heyecanının 1970'lerdeki gibi bir çöküşle sonuçlanacağı uyarısında bulunurken, "nükleer kış" metaforuna başvurmuşlardır [6]. Bu zincirleme reaksiyon modeline göre: yapay zeka topluluğunda kötümserlik → basında kötümserlik → fonlarda ciddi kesinti → ciddi araştırmanın sonu [6].
1974–1980 dönemi, bu modelin ilk somut örneğini oluşturmuştur. Birçok laboratuvar kapanmış veya küçülmüş, yüksek lisans programları daralmış ve yetenekli araştırmacılar başka alanlara yönelmiştir [33]. "Yapay zeka" terimi, fon başvurularında toksik hale gelmiş; araştırmacılar çalışmalarını "bilişim" (informatics), "hesaplamalı zeka" (computational intelligence) veya "örüntü tanıma" (pattern recognition) gibi etiketlerle sunmaya başlamışlardır [33]. Bu terminolojik kaçınma, alanın damgalanmasının ne denli derin olduğunu göstermektedir.
5. Eleştirel Değerlendirme
Lighthill Raporu'nun eleştirel değerlendirmesi, raporun haklı ve haksız olduğu boyutları dengeli biçimde ele almayı gerektirir.
Raporun haklı olduğu noktalar mevcuttur. Kombinatoryal patlama, 1970'lerin yapay zeka araştırmaları için gerçek ve ciddi bir engeldi [16]. Yapay zeka araştırmacılarının 1950'lerin sonu ve 1960'lardaki tahminleri gerçekten de abartılıydı ve kamu fonlarının somut çıktılar üretmeden harcanması meşru bir eleştiri konusuydu [7]. SHRDLU gibi programların kısıtlı mikro dünyaların ötesine geçilememesi, Lighthill'in ölçeklenme eleştirisini destekleyen somut bir kanıttı [10]. Raporun, araştırmacıları vaatlerini gerçekçi temellere oturtmaya zorlaması, uzun vadede alana yararlı bir etki yapmıştır.
Ancak raporun haksız veya yetersiz olduğu boyutlar da çoktur. İlk olarak, Lighthill'in üç kategorili sınıflandırması yapay olarak kısıtlayıcıydı ve alanın gerçek yapısını yansıtmıyordu [12]. McCarthy'nin belirttiği gibi, Kategori B'ye atfedilen başarısızlıklar aslında Kategori A ve C'deki araştırmaların doğal bir parçasıydı; yapay zeka, tanımı gereği bu "köprü" alanında çalışan bir disiplindir [12]. İkinci olarak, Lighthill'in alanla yalnızca iki aylık bir tanışıklığa dayanarak böylesine kapsamlı bir yargıya varması eleştirilmiştir [4]. Üçüncü olarak, rapor teknik değerlendirmelerinde bazı önemli hatalar içermektedir — örneğin satranç programlarındaki sezgisel yöntemlerin yalnızca değerlendirme fonksiyonunda somutlaştığı iddiası, dönemin programlarını bile doğru yansıtmamaktadır [12].
Belki de en önemli eleştiri, raporun zamanlama ve ton sorunudur. Lighthill, yapay zekanın kısa vadeli başarısızlıklarına odaklanarak uzun vadeli potansiyelini göz ardı etmiştir [3]. Temel araştırmaların doğası gereği öngörülemeyen ve uzun vadeli sonuçlar ürettiği gerçeği, raporun çerçevesinde yeterince değerlendirilmemiştir [18]. Agar'ın (2020) analizi, Lighthill'in araştırma felsefesinin — en iyi bilimin pratik uygulamalarla sıkıca bağlantılı olması gerektiği inancının — raporun arkasındaki temel varsayımı oluşturduğunu göstermiştir [18]. Bu varsayım, temel araştırmanın değerini sistematik olarak küçümsemektedir.
Edinburgh bağlantısı da raporun tarafsızlığını sorgulanır kılmaktadır. Lighthill ile Longuet-Higgins'in çocukluk arkadaşlığı ve Longuet-Higgins'in Michie ile devam eden anlaşmazlığı göz önüne alındığında, raporun salt bilimsel bir değerlendirme olarak ele alınması güçleşmektedir [28]. Van Emden'in (2011) ifadesiyle, "işleri feshedilmek üzere olan bizler, meşhur Lighthill Raporu'nun tarafsız okuyucuları değildik" [28].
Thomas Haigh'in (2023) revizyonist çalışması, "yapay zeka kışı" anlatısının kapsamını da sorgulamaktadır [19]. Haigh, fon kesintilerinin yalnızca birkaç büyük merkezi etkilediğini, alanın genel büyümesinin devam ettiğini ve 1970'lerin aslında mantık programlama, bilgi temsili ve sağduyu muhakemesi gibi alanlarda verimli araştırmaların yapıldığı bir dönem olduğunu savunmuştur [19]. Bu perspektif, "kış" metaforunun tüm alanı kapsayan bir donma olarak değil, belirli kurumları ve fonlama kaynaklarını etkileyen seçici bir soğuma olarak anlaşılması gerektiğini düşündürmektedir.
6. Etik ve Toplumsal Boyutlar
Lighthill Raporu, yapay zeka araştırmalarının toplumsal ve etik boyutlarına da dolaylı biçimde ışık tutmaktadır.
İlk ve en belirgin etik mesele, bilimsel vaatlerin sorumluluğu konusudur. 1950'lerin sonu ve 1960'lardaki yapay zeka araştırmacıları, kamu kaynaklarını çekmek için bilinçli veya bilinçsiz olarak abartılı tahminlerde bulunmuşlardır [7]. Moravec'in tanıklığına göre, araştırmacılar "giderek artan bir abartı ağına" yakalanmışlardı: "İlk vaatleri DARPA'ya çok iyimser gelmişti. Elbette teslim ettikleri bunun çok gerisinde kaldı. Ama bir sonraki teklifte öncekinden daha az vaat edemeyeceklerini hissettiler, bu yüzden daha fazla vaat ettiler" [6]. Bu dinamik, bilim etiği açısından ciddi sorunlar barındırmaktadır: araştırmacıların fon baskısı altında abartılı vaatlerde bulunması, hem kamu güvenini sarsmakta hem de gerçekçi beklentiler oluşturulmasını engellemektedir.
İkinci olarak, bilim politikası ve uzman değerlendirmesinin güvenilirliği meselesi gündeme gelmektedir. Lighthill'in alana iki aylık bir tanışıklıkla kapsamlı bir yargıya varması, bir yandan tarafsızlık sağlarken öte yandan derinlikten yoksun bir değerlendirme riski yaratmıştır [18]. Bu gerilim, günümüzde de devam etmektedir: yapay zeka politikaları, alanın teknik nüanslarını anlayan uzmanlar mı yoksa "dışarıdan" bakan bağımsız değerlendiriciler mi tarafından şekillendirilmelidir?
Üçüncü olarak, bilimsel araştırma fonlamasının kırılganlığı ve eşitsiz dağılımı ortaya çıkmaktadır. Lighthill Raporu'nun ardından yapay zeka araştırmaları İngiltere'de neredeyse on yıl boyunca ciddi destek görememiştir [5]. Bu durum, tek bir raporun — üstelik tartışmalı bir raporun — bir araştırma alanının tüm geleceğini belirleyebilmesinin sorunlu doğasını göstermektedir. Günümüzde yapay zeka araştırmalarının büyük ölçüde özel sektör tarafından fonlanması, farklı ama benzer kırılganlıklar yaratmaktadır: piyasa koşulları değiştiğinde araştırma öncelikleri de hızla değişebilmektedir.
Son olarak, Michie'nin 1972'deki Serbelloni konferansında gündeme getirdiği "makine zekası çalışanının toplumsal sorumluluğu" meselesi ilgi çekicidir [34]. Yapay zeka araştırmacıları, tam da alanlarının geleceğinin tehlikeye girdiği bir dönemde, çalışmalarının olası toplumsal sonuçlarını tartışmaya başlamışlardı. Bu erken dönem etik farkındalık, bugünkü yapay zeka etiği tartışmalarının tarihsel öncüsü olarak değerlendirilebilir.
7. Güncel Uygulamalar ve Miras
Lighthill Raporu'nun ve Birinci Yapay Zeka Kışı'nın mirası, günümüz yapay zeka ekosisteminde birçok düzeyde hissedilmektedir.
Abartı döngüleri ve öngörü sorumluluğu. Lighthill Raporu'nun en kalıcı mirası, yapay zeka alanındaki "abartı-hayal kırıklığı-kış" döngüsünün ilk ve en belgelenmiş örneği olmasıdır [6]. Bu döngüsel yapı — 1980'lerin uzman sistem balonunun patlamasıyla tekrarlanan İkinci Yapay Zeka Kışı'nda (1987–1993) yeniden ortaya çıkmıştır [6]. 2020'lerin büyük dil modelleri ve üretken yapay zeka çağında, bu tarihsel dersler yeniden güncellik kazanmaktadır. OpenAI yönetim kurulu başkanı Bret Taylor'ın "sanırım bir balonun içindeyiz" itirafı, tarihsel döngünün farkındalığını yansıtmaktadır [35].
Temel araştırmanın uzun vadeli değeri. Lighthill'in "başarısız" ilan ettiği birçok araştırma alanı, sonraki on yıllarda çığır açan gelişmelerin temelini oluşturmuştur. Sinir ağları araştırmaları, Minsky ve Papert'in eleştirileri ve Lighthill'in olumsuz değerlendirmesine rağmen 1980'lerin ortasında Hopfield, Rumelhart ve Hinton'un çalışmalarıyla yeniden canlanmış ve 2010'lardaki derin öğrenme devrimine zemin hazırlamıştır [16]. Doğal dil işleme, SHRDLU'nun sınırlılıklarının ötesine geçerek GPT ve BERT gibi modellere evrilmiştir. Robotik, Lighthill'in "terk edilmesi gerektiğini" savunduğu alan, günümüzde otonom araçlardan cerrahi robotlara uzanan geniş bir uygulama yelpazesine ulaşmıştır. Bu dönüşüm, temel araştırmanın sonuçlarının öngörülemezliğini ve kısa vadeli başarısızlık değerlendirmelerinin yanıltıcılığını somut biçimde göstermektedir.
Araştırma fonlaması politikaları. Lighthill Raporu'nun ardından İngiltere'de yapay zeka araştırmalarının neredeyse tamamen durması, 1982'de Japonya'nın Beşinci Nesil Bilgisayar Projesi'nin ilanına kadar sürmüştür [5]. Bu Japon girişimi, İngiliz hükümetini harekete geçirmiş ve 1983'te 350 milyon sterlinlik Alvey Programı başlatılmıştır [14]. Bu gecikmenin maliyeti — on yıllık entelektüel göç, kurumsal kapasite kaybı ve uluslararası rekabette geri kalma — tek bir raporun yaratabileceği hasarın boyutunu göstermektedir.
Bilişsel bilimin doğuşu. Paradoks biçiminde, Lighthill Raporu'nun dolaylı bir mirası da "bilişsel bilim" disiplininin doğuşudur. Longuet-Higgins'in yanıt yazısında ortaya koyduğu "bilişsel bilim" kavramı, yapay zeka ile psikoloji, dilbilim ve nörobilimi birleştiren disiplinler arası bir alanın kurulmasına zemin hazırlamıştır [15]. Bu açıdan Lighthill Raporu, yapay zekayı zayıflatırken bilişsel bilimi güçlendiren beklenmedik bir katalizör işlevi görmüştür.
8. Bölüm Özeti
1973 Lighthill Raporu, yapay zeka tarihinin en kritik kırılma noktalarından birini temsil etmektedir. Sir James Lighthill'in İngiliz Bilim Araştırma Konseyi'ne sunduğu "Artificial Intelligence: A General Survey" raporu, yapay zeka araştırmalarını üç kategoriye ayırmış ve "köprü araştırmaları" (Kategori B) olarak tanımladığı temel araştırma alanlarını — robotik, doğal dil işleme ve genel amaçlı problem çözme — başarısız ilan etmiştir [4]. Raporun merkezinde kombinatoryal patlama eleştirisi yer almıştır: yapay zeka tekniklerinin küçük ve kontrollü ortamlarda çalıştığı ama gerçek dünya problemlerine ölçeklenemediği argümanı [4].
Rapor, Edinburgh Üniversitesi'ndeki iç çatışmalar, Lighthill ile Longuet-Higgins arasındaki biyografik bağlar ve İngiliz bilim politikasının dönemsel dinamikleri bağlamında şekillenmiştir [18]. Sonuçları yıkıcı olmuştur: İngiltere'de yapay zeka araştırmalarına verilen destek iki üniversite dışında kesilmiş [5], ABD'de Mansfield Değişikliği'nin ve DARPA'nın kendi hayal kırıklıklarının etkisiyle fonlar daraltılmış [6] ve 1974–1980 yılları "Birinci Yapay Zeka Kışı" olarak tarihe geçmiştir [6].
Ancak tarihsel perspektif, raporun değerlendirmesinin hem haklı hem de haksız boyutları olduğunu göstermektedir. Araştırmacıların abartılı vaatleri gerçekten de kamu güvenini sarsmıştır; ancak Lighthill'in "başarısız" ilan ettiği araştırma alanları — sinir ağları, doğal dil işleme, robotik — sonraki on yıllarda yapay zekanın en devrimci gelişmelerinin temelini oluşturmuştur [16]. Thomas Haigh'in revizyonist çalışmasının gösterdiği gibi, "kış" alanın tümünü kapsayan bir donma değil, belirli kurumları ve fonlama kaynaklarını etkileyen seçici bir soğuma olarak anlaşılmalıdır [19].
Bir sonraki bölümde ele alacağımız John Searle'ün 1980 tarihli Çin Odası argümanı, bu kışın entelektüel ikliminde yeşeren felsefi sorgulamanın doruk noktasını temsil edecektir. Lighthill Raporu pratik başarısızlıkları belgelemiştir; Searle ise çok daha derin bir soru soracaktır: sembolik manipülasyon yapan bir bilgisayar, gerçekten "anlıyor" olabilir mi?
9. Kaynakça
[1] Lighthill, J., Michie, D., McCarthy, J., & Gregory, R. (1973). Lighthill debate at the Royal Institution [BBC Television recording]. Erişim: https://www.aiai.ed.ac.uk/events/lighthill1973/
[2] Crighton, D. G., & Pedley, T. J. (1999). Michael James Lighthill. Biographical Memoirs of Fellows of the Royal Society, 45, 1223–1247.
[3] Crevier, D. (1993). AI: The tumultuous history of the search for artificial intelligence. Basic Books.
[4] Lighthill, J. (1973). Artificial intelligence: A general survey. İçinde Artificial intelligence: A paper symposium (ss. 1–21). Science Research Council.
[5] Fleck, J. (1982). Development and establishment in artificial intelligence. İçinde N. Elias, H. Martins, & R. Whitley (Ed.), Scientific establishments and hierarchies (ss. 169–217). D. Reidel.
[6] Crevier, D. (1993). AI: The tumultuous history of the search for artificial intelligence (ss. 115–122). Basic Books. [Moravec tanıklığı ve DARPA fon kesintileri bölümü]
[7] Simon, H. A. (1957). Models of man: Social and rational. Wiley.
[8] ALPAC. (1966). Languages and machines: Computers in translation and linguistics. National Academy of Sciences/National Research Council.
[9] Minsky, M. L., & Papert, S. A. (1969). Perceptrons: An introduction to computational geometry. MIT Press.
[10] Winograd, T. (1972). Understanding natural language. Academic Press.
[11] Science Research Council. (1973). Artificial intelligence: A paper symposium. SRC. [Sutherland, Needham, Longuet-Higgins ve Michie yanıt yazıları dahil]
[12] McCarthy, J. (1973). Review of "Artificial intelligence: A general survey." Stanford Artificial Intelligence Laboratory. Erişim: https://www-formal.stanford.edu/jmc/reviews/lighthill/lighthill.html
[13] McCorduck, P. (2004). Machines who think: A personal inquiry into the history and prospects of artificial intelligence (2. baskı). A. K. Peters.
[14] Nilsson, N. J. (2010). The quest for artificial intelligence: A history of ideas and achievements. Cambridge University Press.
[15] Boden, M. A. (2006). Mind as machine: A history of cognitive science (Cilt 1–2). Oxford University Press.
[16] Russell, S. J., & Norvig, P. (2021). Artificial intelligence: A modern approach (4. baskı). Pearson.
[17] Dreyfus, H. L. (1972). What computers can't do: A critique of artificial reason. Harper & Row.
[18] Agar, J. (2020). What is science for? The Lighthill report on artificial intelligence reinterpreted. The British Journal for the History of Science, 53(3), 289–310.
[19] Haigh, T. (2023). There was no AI winter. [Konferans sunumu ve makale taslağı]. ACM SIGART üyelik verileri analizi.
[20] Norberg, A. L., & O'Neill, J. E. (1996). Transforming computer technology: Information processing for the Pentagon, 1962–1986. Johns Hopkins University Press.
[21] Nabiyev, V. V. (2021). Yapay zeka (6. baskı). Seçkin Yayıncılık.
[22] Saygin, A. P., Cicekli, I., & Akman, V. (2000). Turing test: 50 years later. Minds and Machines, 10(4), 463–518.
[23] Minsky, M. L. (1967). Computation: Finite and infinite machines. Prentice-Hall.
[24] Newell, A., & Simon, H. A. (1956). The logic theory machine: A complex information processing system. IRE Transactions on Information Theory, 2(3), 61–79.
[25] Newell, A., Shaw, J. C., & Simon, H. A. (1959). Report on a general problem-solving program. Proceedings of the International Conference on Information Processing, 256–264.
[26] Edinburgh School of Informatics. (t.y.). History of artificial intelligence at Edinburgh. University of Edinburgh. Erişim: https://www.inf.ed.ac.uk/about/AIhistory.html
[27] Gregory, R. L. (1970). [Bristol Üniversitesi'ne geçiş]; Longuet-Higgins, H. C. (1974). [Sussex Üniversitesi'ne geçiş]. Belgeleme: Edinburgh DMIP arşivleri.
[28] Van Emden, M. H. (2011). From the chronicles of Scruffy versus Neat: The Lighthill Affair. A Programmer's Place [Blog yazısı]. Erişim: https://vanemden.wordpress.com/2011/02/18/
[29] Mansfield Amendment. (1969). Section 203, Department of Defense Appropriation Authorization Act of 1970, Pub. L. No. 91-121.
[30] Lighthill, M. J. (1952). On sound generated aerodynamically: I. General theory. Proceedings of the Royal Society of London, Series A, 211(1107), 564–587.
[31] Ambler, A. P., Barrow, H. G., Brown, C. M., Burstall, R. M., & Popplestone, R. J. (1975). A versatile computer-controlled assembly system. Proceedings of the 3rd International Joint Conference on Artificial Intelligence, 298–307.
[32] Reddy, R. (1976). Speech recognition by machine: A review. Proceedings of the IEEE, 64(4), 501–531.
[33] DataCamp. (2025). AI winter: Understanding the cycles of AI development. Erişim: https://www.datacamp.com/blog/ai-winter
[34] Michie, D. (Düzenleyen). (1974). On machine intelligence. Edinburgh University Press. [Serbelloni konferansı tartışmaları dahil]
[35] Hood, C. (2025). The AI winter road: History's lessons warn of today's bubble. Erişim: https://chrishood.com/the-ai-winter-road/
10. Tartışma Soruları
1. Analitik: Lighthill'in üç kategorili yapay zeka sınıflandırması (A, B, C) neden dönemin araştırmacıları tarafından "yapay" olarak değerlendirilmiştir? Bu sınıflandırmanın yapay zekanın disipliner yapısını doğru yansıtıp yansıtmadığını tartışınız.
2. Karşılaştırmalı: 1966 ALPAC Raporu (makine çevirisi), 1969 Perceptrons kitabı (sinir ağları) ve 1973 Lighthill Raporu (genel yapay zeka) arasında eleştiri stratejisi, etki mekanizması ve uzun vadeli sonuçlar açısından ne gibi benzerlikler ve farklılıklar bulunmaktadır?
3. Spekülatif: Lighthill Raporu hiç yazılmasaydı, İngiliz yapay zeka araştırmaları nasıl bir seyir izlerdi? Edinburgh'daki iç çatışmalar göz önüne alındığında, raporun yokluğunda bile benzer bir kriz yaşanır mıydı?
4. Etik: Yapay zeka araştırmacılarının 1960'lardaki abartılı vaatleri — "on yıl içinde makineler insan gibi düşünecek" türünden tahminler — bilim etiği açısından nasıl değerlendirilmelidir? Araştırmacıların fon çekme baskısı ile dürüst öngörü sorumluluğu arasındaki gerilim bugün nasıl yönetilmektedir?
5. Güncel: Lighthill'in kombinatoryal patlama eleştirisi, günümüzün derin öğrenme ve büyük dil modelleri çağında hâlâ geçerli midir? Bu eleştirinin aşıldığı ve hâlâ geçerli olduğu alanları belirleyiniz.
6. Karşılaştırmalı: Lighthill Raporu bir "dışarıdan değerlendirme" (outsider review) örneğidir — alan uzmanı olmayan birinin bir disiplini değerlendirmesi. Bu yaklaşımın avantajları ve dezavantajları nelerdir? Günümüzde yapay zeka politikalarını şekillendiren değerlendirme süreçlerinde hangi yaklaşım tercih edilmelidir?
7. Analitik: Thomas Haigh'in "1970'lerde gerçek bir yapay zeka kışı yaşanmadı" argümanı, geleneksel "yapay zeka kışı" anlatısıyla nasıl uzlaştırılabilir? "Kış" kavramının kapsamı ve sınırları nedir?
8. Spekülatif: 2020'lerin üretken yapay zeka balonunun — milyarlarca dolarlık yatırımların ve "yapay genel zeka beş yıl uzaklıkta" türünden vaatlerin — 1960'ların iyimserliğiyle yapısal benzerlikleri nelerdir? Üçüncü bir "yapay zeka kışı" yaşanması olasılığını tarihsel kanıtlar ışığında değerlendiriniz.
9. Etik: Lighthill Raporu, bir araştırma alanının tüm geleceğini tek bir değerlendirme raporuyla belirleyebilmenin sorunlu doğasını ortaya koymaktadır. Bilim politikasında böylesine yüksek etkili kararlar hangi mekanizmalarla alınmalıdır?
10. Güncel: Longuet-Higgins'in Lighthill Raporu'na yanıt yazısında icat ettiği "bilişsel bilim" terimi, yapay zeka ile bilişsel bilimin ayrışmasını simgelemektedir. Bu ayrışma bugün nasıl bir konumdadır — yapay zeka ve bilişsel bilim yeniden yakınlaşıyor mu, yoksa ayrışma derinleşiyor mu?