Dartmouth Konferansı
1956 Dartmouth Konferansı: 'yapay zeka' teriminin resmi olarak doğuşu.
1. Giriş
1956 yazında, New Hampshire'ın sakin üniversite kasabası Hanover'da, Dartmouth College'ın matematik bölümünün üst katında bir avuç bilim insanı bir araya geldi. Bu toplantı ne görkemli bir konferans salonunda gerçekleşti, ne de katı bir akademik protokol izledi. Katılımcılar serbest biçimde tartıştılar, kara tahtalara denklemler yazdılar ve kahve eşliğinde makinelerin düşünüp düşünemeyeceğini sorguladılar [1]. Ancak bu mütevazı görünümlü buluşma — resmi adıyla "Dartmouth Yapay Zeka Üzerine Yaz Araştırma Projesi" (Dartmouth Summer Research Project on Artificial Intelligence) — yapay zekanın bağımsız bir araştırma disiplini olarak doğuşunu simgeleyen kurucu olay olarak tarihe geçecekti [2]. The Encyclopedia of Artificial Intelligence, bu toplantıyı yapay zekanın "Anayasa Konvansiyonu" olarak nitelendirmektedir [3].
Konferansın tarihsel önemini kavramak için 1950'lerin ortasındaki entelektüel atmosferi anlamak gerekmektedir. İkinci Dünya Savaşı, bilgisayar teknolojisinin gelişimini dramatik biçimde hızlandırmıştı: ENIAC (1946) ve ardından gelen programlanabilir bilgisayarlar, makinelerin hesaplama kapasitesini insanlığın daha önce hayal edemeyeceği düzeylere taşımıştı [4]. Alan Turing, 1950 tarihli ufuk açıcı makalesinde "Makineler düşünebilir mi?" sorusunu sormuş ve bu soruyu test edecek bir yöntem — Turing Testi — önermiştir [5]. Norbert Wiener'in sibernetiği, canlı ve yapay sistemlerdeki kontrol mekanizmalarını inceliyordu; Claude Shannon'ın bilgi kuramı, iletişimin matematiksel temellerini atmıştı [6]. Warren McCulloch ve Walter Pitts, nöral aktivitenin mantıksal olarak modellenebileceğini göstermişti [7]. Tüm bu gelişmeler, "düşünen makineler" fikrinin yalnızca bilim kurgu olmadığını, ciddi bir araştırma programına dönüşebileceğini ima ediyordu. Ancak alanın ortak bir adı, birleşik bir kimliği ve tutarlı bir araştırma gündemi yoktu. İşte Dartmouth Konferansı, tam da bu boşluğu dolduracaktı.
Bu bölümde, konferansın arka planını, organizatörlerinin vizyonunu, katılımcılarını ve tartışma konularını, konferansta sunulan tek çalışan programı — Logic Theorist'i — ve bu toplantının yapay zeka araştırmalarının sonraki on yıllarını nasıl şekillendirdiğini ayrıntılı biçimde ele alacağız. Konferansın hem başarıları hem de sınırlılıkları — aşırı iyimserlikten etik körlüğe, kavramsal atılımlardan kurumsal politikalara — yapay zekanın tarihsel gelişimini anlamak için vazgeçilmez bir çerçeve sunmaktadır. Bir önceki bölümde incelediğimiz Arthur Samuel'in dama oynayan programı, Dartmouth'ta tartışılan konular arasındaydı ve Samuel bizzat konferansa katılmıştı; bir sonraki bölümde ele alacağımız John McCarthy'nin LISP programlama dili (1958) ise doğrudan bu konferansta filizlenen fikirlerin — özellikle sembolik bilgi işleme ihtiyacının — ürünü olacaktır.
2. Literatür Taraması
Dartmouth Konferansı'na ilişkin akademik literatür, olayın kurucu niteliği nedeniyle oldukça geniştir; ancak konferansın kendisine dair birincil kaynaklar paradoksal biçimde sınırlıdır — Rockefeller Vakfı'na resmi bir rapor hiçbir zaman sunulmamıştır [8].
En temel birincil kaynak, McCarthy, Minsky, Rochester ve Shannon tarafından 31 Ağustos 1955 tarihinde kaleme alınan ve Rockefeller Vakfı'na sunulan orijinal teklif metnidir [9]. Bu belge, "yapay zeka" teriminin ilk kez yazılı olarak kullanıldığı metin olarak kabul edilmektedir ve konferansın temel hipotezini ortaya koymaktadır: "Öğrenmenin ya da zekanın diğer herhangi bir özelliğinin her yönü, prensipte, bir makinenin onu simüle edebileceği kadar kesin biçimde tanımlanabilir" [9]. Teklif metninin tam hali, AI Magazine'in 2006 tarihli özel sayısında yeniden yayımlanmıştır [10].
Konferans sırasında tutulan en kapsamlı notlar, katılımcılardan Ray Solomonoff'a aittir. Solomonoff, konferansta en uzun süre kalan üç kişiden biri olarak (diğerleri Minsky ve McCarthy), günlük notlarında tartışma konularını, konuşmaları ve fikirleri kaydetmiştir [1]. Bu notlar, konferansın yaklaşık sekiz hafta sürdüğünü (18 Haziran – 17 Ağustos 1956) doğrulamaktadır — organizatörlerin başlangıçta öngördüğü iki aylık süreye yakın bir zamandır [8].
McCorduck'ın (1979/2004) Machines Who Think adlı eseri, Dartmouth Konferansı'nın en kapsamlı tarihsel anlatılarından birini sunmaktadır [11]. McCorduck, katılımcılarla yaptığı röportajlara dayanarak konferansın atmosferini, tartışmaların dinamiklerini ve katılımcılar arasındaki kişisel ilişkileri aktarmıştır. Özellikle Newell ve Simon'ın Logic Theorist'i sunduğunda toplantının tepkisini — "ilımsız" karşılanmasını — aktaran pasajlar, konferanstaki entelektüel rekabetin boyutunu ortaya koymaktadır [11].
Crevier'in (1993) AI: The Tumultuous History of the Search for Artificial Intelligence kitabı, konferansı yapay zeka tarihinin genel akışı içinde konumlandırmış ve özellikle konferans sonrası oluşan iyimserlik dalgasının nasıl hayal kırıklığına dönüştüğünü izlemiştir [12]. Nilsson'ın (2010) The Quest for Artificial Intelligence eseri, Dartmouth'u teknik bir perspektiften ele alarak konferansta tartışılan araştırma konularının her birinin sonraki gelişimini ayrı ayrı takip etmiştir [13]. Russell ve Norvig'in (2021) Artificial Intelligence: A Modern Approach ders kitabı, konferansı yapay zekanın "doğum anı" olarak tanımlamakta ve tarihsel dönemlendirmede 1956'yı bir milat olarak kabul etmektedir [14].
Kline'ın (2011) IEEE Annals of the History of Computing'de yayımlanan makalesi, Dartmouth Konferansı'nın sibernetik, otomat çalışmaları ve bilgi işleme gelenekleriyle olan ilişkisini incelemiş ve McCarthy'nin "yapay zeka" terimini seçerken Wiener'in sibernetik ekolünden bilinçli biçimde uzaklaşmak istediğini belgelemiştir [15]. Bu çalışma, konferansın yalnızca bir başlangıç değil, aynı zamanda bir ayrışma noktası olduğunu göstermiştir.
Moor'un (2006) AI Magazine'deki makalesi, konferansın 50. yıldönümü vesilesiyle düzenlenen AI@50 etkinliğinin arka planını sunmuş ve orijinal katılımcıların geriye dönük değerlendirmelerini derlemiştir [10]. Grace Solomonoff'un (2023) IEEE Spectrum'daki makalesi, konferanstaki ünlü grup fotoğrafındaki "bilinmeyen kişinin" kimliğini tespit ederek (Peter Milner) tarihsel kayıtları düzeltmiştir [16]. Wooldridge'in (2021) A Brief History of Artificial Intelligence eseri, konferansı genel okuyucu için erişilebilir bir anlatıyla aktarmış ve McCarthy'nin terim seçiminin arkasındaki stratejik düşünceyi vurgulamıştır [17].
Dick'in (2019) Harvard Data Science Review'daki eleştirel makalesi, standart Dartmouth anlatısını sorunsallaştırarak yapay zekanın 1955'te "doğmadığını," aksine çok daha uzun bir zeka ve yapay kavramları tarihine katıldığını savunmuştur [18]. Türkçe literatürde, Nabiyev'in (2021) Yapay Zeka ders kitabı Dartmouth Konferansı'nı Türk okuyucu için bağlamlandırmıştır [19]. Bu kaynaklar birlikte değerlendirildiğinde, Dartmouth Konferansı'nın hem bir kurucu mit hem de gerçek bir tarihsel dönüm noktası olarak çok katmanlı bir anlam taşıdığı görülmektedir.
3. Tarihsel ve Teorik Arka Plan
Entelektüel Soy Ağacı. Dartmouth Konferansı, boşlukta ortaya çıkmamıştır; onu mümkün kılan derin entelektüel kökler vardır. Bu köklerin en temel olanı, Alan Turing'in hesaplanabilirlik kuramıdır. Turing'in 1936 tarihli "On Computable Numbers" makalesi, evrensel bir makinenin herhangi bir hesaplanabilir fonksiyonu gerçekleştirebileceğini matematiksel olarak kanıtlamıştır [20]. Bu fikir, bilgisayarların potansiyel olarak sınırsız bir görev yelpazesini — belki de zeka gerektiren görevleri — üstlenebileceği umudunun teorik temelini oluşturmuştur. Turing'in 1950 tarihli "Computing Machinery and Intelligence" makalesi ise bu fikri doğrudan "makineler düşünebilir mi?" sorusuna bağlamıştır [5].
İkinci büyük entelektüel kaynak, sibernetiktir. Norbert Wiener'in 1948'de yayımladığı Cybernetics adlı eseri, canlı ve yapay sistemlerdeki geri bildirim mekanizmalarını incelemiş ve "kontrol ve iletişim" kavramını hem biyolojik hem de mekanik sistemlere uygulamıştır [21]. Sibernetik, 1940'lar ve 1950'lerin başında "düşünen makineler" araştırmalarının baskın çerçevesiydi; ancak McCarthy, bu çerçeveyi yetersiz bularak alternatif bir terim ve yaklaşım arayışına girmiştir [15].
Üçüncü kaynak, nörobilimsel modellemedir. McCulloch ve Pitts'in 1943 tarihli çalışması, nöronların mantıksal kapılar olarak modellenebileceğini göstermiş ve yapay sinir ağları fikrinin temelini atmıştır [7]. Bu çalışma, Minsky'nin bir önceki bölümde ele alınan SNARC projesini (1951) ve Hebb'in sinaptik öğrenme kuramını doğrudan etkilemiştir [22]. Shannon'ın 1948 tarihli bilgi kuramı ise iletişim ve bilgi işlemenin matematiksel temellerini sağlamıştır [6].
Dönemin Kurumsal ve Finansal Altyapısı. 1950'lerin ortasında, bilgisayar araştırmaları büyük ölçüde askeri fonlamaya bağlıydı. Soğuk Savaş, ABD hükümetini bilimsel araştırmalara yoğun kaynak ayırmaya sevk ediyordu; Deniz Araştırmaları Ofisi (Office of Naval Research), Hava Kuvvetleri Araştırma Ofisi (AFOSR) ve DARPA'nın öncülü olan ARPA, bilgisayar bilimi projelerinin temel finansörleriydi [12]. Dartmouth Konferansı'nın kendisi ise daha mütevazı bir kaynaktan — Rockefeller Vakfı'ndan — fonlanmıştır. McCarthy, 13.500 dolarlık bir bütçe talep etmiş; ancak Vakfı'nın Biyolojik ve Tıbbi Araştırmalar Direktörü Robert Morison, alanın henüz yeterince olgunlaşmadığını düşünerek bütçeyi 7.500 dolara indirmiş ve süreyi beş haftayla sınırlandırmak istemiştir [23]. Morison'ın tereddütlü tutumu, dönemin akademik yerleşiminin bu tür vizyoner projelere temkinli yaklaştığını göstermektedir.
Rakip Adlandırmalar ve McCarthy'nin Stratejik Tercihi. 1950'lerin başında "düşünen makineler" alanı, birden fazla isim altında yürütülüyordu: sibernetik (cybernetics), otomat çalışmaları (automata studies), karmaşık bilgi işleme (complex information processing) [15]. Bu çoğulluk, yalnızca terminolojik değil, kavramsal bir parçalanmayı yansıtıyordu. Her terim, farklı bir entelektüel geleneği, farklı bir metodolojik yaklaşımı ve farklı bir kurumsal ağı temsil ediyordu. Sibernetik, Wiener'in liderliğindeki disiplinlerarası bir gelenek olarak analog geri bildirim mekanizmalarına odaklanıyordu; otomat çalışmaları, Shannon ve von Neumann'ın matematiksel modelleme geleneğine dayanıyordu; karmaşık bilgi işleme ise Newell ve Simon'ın bilişsel psikoloji ile bilgisayar bilimini birleştiren yaklaşımını yansıtıyordu [15].
McCarthy, "yapay zeka" terimini seçerken birkaç stratejik hesap yapmıştır: birincisi, Wiener'in sibernetik ekolünden bağımsız bir alan tanımlamak — kendi ifadesiyle, Wiener'i "guru olarak kabul etmek ya da onunla tartışmak" zorunda kalmamak [24]; ikincisi, Turing'in "zeka" kavramına odaklanmak; üçüncüsü, alanı yalnızca dijital bilgisayar çözümlerine yönlendirmek [15]. McCarthy, Shannon ile birlikte düzenlediği Automata Studies derlemesinin adını "Akıllı Otomatlara Doğru" (Towards Intelligent Automata) olarak değiştirmeyi önermiş; ancak Shannon bunu fazla iddialı bularak reddetmiştir [24]. McCarthy, Rockefeller Vakfı yetkilileriyle 1955 baharındaki görüşmelerinde, sibernetikçilerin konferansa davet edilmemesi için büyük çaba sarf etmiş, ancak birkaçını kabul etmek zorunda kalmıştır [24]. Bu akademik politika, daha derin bir kavramsal ayrışmanın yansımasıydı. Sonuçta McCarthy, 1955 teklif metninde "yapay zeka" terimini kullanarak alana kalıcı bir kimlik kazandırmıştır — ilginçtir ki, kendisi sonradan bu terimi seçtiğine pişman olduğunu ve "hesaplamalı zeka" (computational intelligence) terimini tercih edeceğini belirtmiştir [25].
4. Ana Konu Analizi
4a. Konferansın Yapısı ve Temel Temaları
Dartmouth Konferansı, geleneksel bir akademik konferanstan temelden farklıydı. Resmi sunumlar, katı bir gündem veya belirlenmiş bir program yoktu [1]. Katılımcılar, Dartmouth Matematik Bölümü'nün üst katını tamamen kendilerine ayırmışlardı; çoğu hafta içi günlerde ana matematik sınıfında toplanıyor, birisi tartışmayı yönlendiriyor ya da daha sık olarak herkes serbestçe fikir alışverişinde bulunuyordu [8]. Arthur Samuel'in ifadesiyle, toplantı "çok ilginç, çok teşvik edici, çok heyecan vericiydi" [1].
Orijinal teklif metninde yedi temel araştırma konusu belirlenmiştir: (1) otomatik bilgisayarlar, (2) bilgisayarların dili kullanması, (3) nöral ağlar, (4) hesaplama büyüklüğü teorisi, (5) kendi kendine iyileştirme, (6) soyutlama, (7) rastgelelik ve yaratıcılık [9]. Bu konuların çoğu, günümüzde hâlâ yapay zeka araştırmalarının merkezinde yer almaktadır. Konferansta ortaya çıkan üç temel araştırma yönelimi, sonraki on yılları şekillendirmiştir: sembolik yöntemler (symbolic methods), sınırlı alan sistemleri (erken uzman sistemlerin öncüsü) ve tümdengelimsel ile tümevarımsal sistemler arasındaki gerilim [8].
Konferansın en kritik tartışma ekseni, "zeka"nın nasıl modelleneceği sorusuydu. Bir tarafta, beyni ve nöronları inceleyerek zekayı yeniden üretmeye çalışan bağlantıcı (connectionist) yaklaşım savunucuları vardı — Minsky'nin SNARC projesi bu geleneğin somut bir ürünüydü [22]. Diğer tarafta, zihnin ne yaptığına odaklanarak doğrudan problem çözmeye yönelen sembolik mantık yaklaşımı savunucuları yer alıyordu [26]. Bu ayrışma, yapay zeka tarihinin sonraki altmış yılını belirleyecek temel gerilimi yansıtıyordu.
4b. Kilit Aktörler ve Katkıları
John McCarthy (1927–2011), konferansın fikir babası ve baş organizatörüydü. Dartmouth College'da genç bir matematik yardımcı doçenti olan McCarthy, alanın dağınık yapısından rahatsızdı ve araştırmacıları ortak bir vizyon etrafında toplamayı hedefliyordu [15]. McCarthy'nin kendi ifadesiyle: "O sırada, ilgili herkesi bir araya getirip dikkat dağıtıcı şeylerden kaçınarak konuya zaman ayırırsak gerçek ilerleme kaydedebileceğimize inanıyordum" [27]. Konferansta McCarthy, sembolik mantık ve biçimsel diller üzerinde çalışmalar sunmuş; Minsky'nin geometri teorem kanıtlayıcı fikrinden esinlenerek LISP programlama dilinin temellerini atmaya başlamıştır [28].
Marvin Minsky (1927–2016), konferansın eş organizatörü ve en aktif katılımcılarından biriydi. Harvard'da matematik ve nöroloji araştırmacısı olan Minsky, sekiz haftalık sürenin tamamında konferansta kalmıştır [8]. Bir önceki bölümde incelediğimiz SNARC projesinin yaratıcısı olarak, bağlantıcı yaklaşımın doğrudan deneyim sahibiydi. Konferansta, düzlem geometrisi teorem kanıtlayıcı fikrini sunmuş ve bu fikir, Nathaniel Rochester aracılığıyla IBM'de Herbert Gelernter'in çalışmalarına ilham vermiştir [28].
Claude Shannon (1916–2001), bilgi kuramının yaratıcısı ve Bell Laboratuvarları'nın en parlak zihinlerinden biri olarak konferansın eş organizatörlerinden biriydi [6]. Shannon, "otomat çalışmaları" (automata studies) terimini tercih etmesine rağmen McCarthy'nin "yapay zeka" adlandırmasını kabul etmiştir [15]. Bir önceki bölümlerde ele alınan Theseus labirent çözücüsü (1950) ile makine zekası konusunda pratik deneyime sahipti.
Nathaniel Rochester (1919–2001), IBM'in ilk ticari bilimsel ana bilgisayarı IBM 701'in mimarı olarak konferansa endüstriyel bir perspektif getirmiştir [12]. Rochester, IBM'deki kaynaklarını konferans sonrası araştırma projelerine yönlendirmede kritik bir rol oynamıştır.
Allen Newell (1927–1992) ve Herbert A. Simon (1916–2001), Carnegie Mellon Üniversitesi'nden gelen ve konferansın belki de en somut katkısını sunan ikili olmuştur [29]. RAND Corporation'da Cliff Shaw ile birlikte geliştirdikleri Logic Theorist (Mantık Kuramcısı), konferansta sunulan tek çalışan program olarak tarihsel bir önem taşımaktadır [30].
Diğer önemli katılımcılar arasında Ray Solomonoff (algoritmik bilgi kuramının öncüsü), Oliver Selfridge (örüntü tanımanın öncüsü), Arthur Samuel (dama oynayan programın yaratıcısı) ve Trenchard More yer almıştır [1]. Toplam katılımcı sayısı tartışmalıdır: McCarthy'nin sonradan hazırladığı listede 47 isim yer almakta, ancak bunların çoğu kısa süreli ziyaretçilerdir; çekirdek grup yaklaşık 10-20 kişiden oluşmuştur [8].
4c. Logic Theorist: Konferansın Yıldızı
Dartmouth'un en somut çıktısı, Newell, Simon ve Shaw tarafından geliştirilen Logic Theorist programıydı. Bu program, Whitehead ve Russell'ın Principia Mathematica adlı eserindeki matematiksel teoremleri otomatik olarak kanıtlamak üzere tasarlanmıştı [30]. Programın gelişim süreci kendisi de dikkat çekicidir: Ocak 1956'da, Simon ailesini ve birkaç lisansüstü öğrenciyi bir araya getirmiş, her birine 3x5 inçlik kartlar dağıtmış ve her katılımcıyı programın bir bileşeni olarak çalıştırarak programı elle simüle etmiştir — Simon'ın ifadesiyle "doğa sanatı taklit ediyor, sanat doğayı" [34]. Daha sonra program, RAND Corporation'daki JOHNNIAC bilgisayarında çalıştırılarak Logic Theorist, Principia'nın ikinci bölümündeki 52 teoremin 38'ini kanıtlamayı başarmış ve bazıları için orijinalden daha kısa ve zarif kanıtlar bulmuştur [29].
Logic Theorist'in tarihsel önemi birkaç katmanlıdır. Birincisi, kasıtlı olarak insan problem çözme becerilerini taklit etmek üzere tasarlanmış ilk program olarak kabul edilmektedir [30]. Simon, insanlar ve bilgisayarlar arasında temel bir benzerlik olduğuna inanıyordu: her ikisi de "bilgi işleme sistemleri"ydi [18]. İkincisi, George Pólya'nın Stanford'daki sezgisel (heuristic) problem çözme derslerinden esinlenerek, kaba kuvvet (brute force) arama yerine sezgisel yöntemler kullanmıştır — hedef teoremin tersine çalışarak küçük ikamelerle bilinen aksiyomlara ulaşma stratejisi izlemiştir [29]. Bu yaklaşım, "sezgisel arama" (heuristic search) kavramını yapay zeka araştırmalarının temel yöntemi haline getirmiştir. Üçüncüsü, program sembolik yapay zekanın (symbolic AI) ilk örneği olarak, semboller ve kavramlar üzerinden akıl yürütme paradigmasını başlatmış ve bu paradigma 1990'lara kadar alandaki baskın yaklaşım olmuştur [26]. Dördüncüsü, Logic Theorist'in uygulanması için geliştirilen IPL (Information Processing Language) programlama dili, McCarthy'nin LISP dilinin doğrudan öncüsü olmuştur [29].
Simon, Ocak 1956'da bir lisansüstü dersinde şöyle demişti: "Bu Noel'de Al Newell ve ben bir düşünen makine icat ettik" [34]. Bu iddianın cüreti, dönemin iyimserliğini yansıtmaktadır. Ancak ironik biçimde, Logic Theorist Dartmouth'ta ilımsız bir karşılık görmüştür. McCorduck'ın aktardığına göre, "Newell ve Simon dışında hiç kimse yaptıklarının uzun vadeli önemini kavrayamamıştır" [11]. Simon, "muhtemelen oldukça kibirli davrandıklarını" ve diğer katılımcıların onları dinlemek istemediğini itiraf etmiştir [29]. Bu tepkisizlik, konferanstaki entelektüel çeşitliliğin bir yansımasıydı: her katılımcı kendi araştırma gündemini öncelikli görüyordu. Konferansta "sezgisel" (heuristic) kelimesi o denli sık kullanılmıştır ki, bir grup katılımcı — Selfridge, Minsky, McCarthy, Solomonoff ve Trenchard More — bir sözlük standının başına toplanarak kelimenin tanımını araştırmıştır [16].
4d. Genel YZ Tarihindeki Yeri
Dartmouth Konferansı, yapay zeka tarihinde birkaç kritik işlev üstlenmiştir. Birincisi, alana ortak bir ad ve kimlik kazandırmıştır: "yapay zeka" terimi, dağınık araştırma çabalarını birleşik bir disiplin altında toplamıştır [15]. İkincisi, bir araştırma topluluğu oluşturmuştur: konferansa katılan araştırmacılar, sonraki yıllarda yapay zekanın kurumsal yapılarını — MIT Yapay Zeka Laboratuvarı, Carnegie Mellon'daki araştırma grupları, Stanford Yapay Zeka Laboratuvarı — inşa edeceklerdir [12]. Üçüncüsü, bir araştırma gündemi belirlemiştir: doğal dil işleme, sinir ağları, hesaplama kuramı, öğrenme ve soyutlama konuları, bugün hâlâ yapay zeka araştırmalarının çekirdek alanlarıdır [9].
Konferansın olmadığı bir senaryoda, "düşünen makineler" araştırmaları muhtemelen sibernetik, otomat kuramı ve bilişsel psikoloji gibi farklı disiplinlere dağılmış olarak kalacak ve birleşik bir "yapay zeka" disiplini çok daha geç ortaya çıkacaktı. Konferans, aynı zamanda sembolik yaklaşımın üstünlüğünü pekiştirmiş ve bağlantıcı yaklaşımı (sinir ağları) görece arka plana itmiştir — bu dengesizlik, 1980'lerin sonuna kadar sürecektir [13].
5. Eleştirel Değerlendirme
Dartmouth Konferansı'nın kurucu mit statüsü, eleştirel bir incelemeyi zorunlu kılmaktadır.
Konferansın en temel sorunu, katılımcıların aşırı iyimserliğiydi. Teklif metni, zekanın her yönünün "bir makinenin onu simüle edebileceği kadar kesin biçimde tanımlanabileceğini" varsaymıştı [9]. Katılımcılar, 1970'e kadar bilgisayarların satranç şampiyonu olacağını, yeni matematiksel teoremler keşfedeceğini, kabul edilebilir düzeyde dil çevirisi yapacağını ve konuşulan dili anlayacağını öngörmüşlerdir [31]. Bu öngörülerin hiçbiri belirtilen sürede gerçekleşmemiştir: satranç şampiyonluğu 1997'de (IBM Deep Blue), kabul edilebilir dil çevirisi 2010'larda (Google Neural Machine Translation), konuşma tanıma 2010'ların ortasında ve doğal dil anlama 2020'lerde (GPT serisi) mümkün olabilmiştir. Bu iyimserlik, yapay zeka tarihinde tekrarlayan "abartı döngülerinin" (hype cycles) ilk örneği olmuştur [12].
İkinci eleştiri, katılımcı profilinin homojenliğidir. Konferansa katılanlar neredeyse tamamen Amerikalı, erkek, beyaz ve seçkin üniversitelerden gelen araştırmacılardı [18]. Kadın katılımcı yoktu; farklı kültürel, etnik ve disipliner perspektifler temsil edilmiyordu. Dick'in (2019) vurguladığı gibi, bu homojenlik, yapay zekanın "zeka" tanımının belirli bir kültürel ve epistemolojik gelenekten — Batılı, rasyonalist, formalist — şekillendirilmesine yol açmıştır [18].
Üçüncü eleştiri, konferanstaki tartışmaların etik boyutlardan yoksun olmasıdır. Düşünen makinelerin toplumsal etkileri, istihdam üzerindeki potansiyel sonuçları, güç dağılımı veya olası riskler tartışılmamıştır [32]. Bu eksiklik, yapay zekanın "nasıl" sorusuna odaklanıp "neden" ve "kimin için" sorularını uzun süre göz ardı etmesinin tarihsel başlangıç noktası olarak değerlendirilebilir.
Bugünden bakıldığında, konferansın bazı öngörüleri doğru çıkmıştır: yapay zeka gerçekten de bağımsız ve güçlü bir araştırma disiplini haline gelmiştir, makineler satranç oynayabilmekte, dil çevirebilmekte ve teorem kanıtlayabilmektedir. Ancak bu başarıların konferansta öngörülen yöntemlerle mi yoksa çok farklı yaklaşımlarla mı gerçekleştiğini sorgulamak önemlidir. Konferansın sembolik yaklaşıma verdiği ağırlık, sinir ağları ve istatistiksel yöntemlerin yükselişiyle büyük ölçüde dengelenmiştir — hatta tersine dönmüştür [13].
Dördüncü bir eleştiri, konferansın "yapay zeka" adlandırmasının kendisiyle ilgilidir. "Yapay" ve "zeka" kelimelerinin bir araya getirilmesi, makinelerin insan zekasıyla karşılaştırılmasını kaçınılmaz kılmıştır [32]. Bu karşılaştırma, hem bir nimet hem de bir lanet olmuştur: bir yandan araştırmacılara iddialı hedefler sunmuş, öte yandan ulaşılamaz beklentiler yaratarak hayal kırıklığı döngülerini tetiklemiştir. Shannon'ın tercih ettiği "otomat çalışmaları" ya da Newell ve Simon'ın kullandığı "karmaşık bilgi işleme" terimleri, daha mütevazı ama belki de daha gerçekçi beklentiler oluşturabilirdi [15]. McCarthy'nin kendisinin bile sonradan bu terimi seçtiğine pişman olması, adlandırmanın alanın algılanışı üzerindeki etkisinin ne denli güçlü olduğunu göstermektedir [25].
6. Etik ve Toplumsal Boyutlar
Dartmouth Konferansı'nın etik boyutları, büyük ölçüde yokluk üzerinden değerlendirilebilir: konferansta etik, toplumsal etki veya sorumluluk tartışmaları yapılmamıştır [32]. Bu sessizlik, dönemin bilimsel iyimserliğinin doğal bir yansımasıydı; ancak bugünden bakıldığında, alanın kuruluş aşamasında etik çerçevelerin oluşturulmamasının uzun vadeli sonuçları olduğu açıktır.
Konferansın askeri bağlantıları da göz ardı edilmemelidir. Katılımcıların önemli bir kısmı, doğrudan veya dolaylı olarak askeri araştırma fonlarından besleniyordu: RAND Corporation, Soğuk Savaş döneminin en önemli askeri düşünce kuruluşlarından biriydi; Newell ve Simon'ın Logic Theorist'i burada geliştirilmişti [29]. Shannon Bell Laboratuvarları'nda, Rochester IBM'de çalışıyordu — her iki kurum da askeri sözleşmelere sahipti [12]. Bu bağlam, yapay zekanın doğuşunun askeri-endüstriyel kompleksle iç içe geçtiğini göstermektedir.
Konferansın çeşitlilik eksikliği, yalnızca tarihsel bir not değil, yapısal bir sorundur. Yapay zekanın "zeka" kavramını nasıl tanımladığı, hangi problemleri önceliklendirdiği ve hangi çözüm yollarını tercih ettiği, kurucu grubun perspektiflerinden doğrudan etkilenmiştir [18]. Bu homojenliğin izleri, günümüzde yapay zeka sistemlerindeki önyargı (bias) tartışmalarında, algoritmik adalet sorunlarında ve teknoloji endüstrisindeki çeşitlilik eksikliğinde hâlâ görülmektedir.
Son olarak, Dartmouth'ta benimsenen "zekanın her yönünü simüle etme" hedefi, farkında olmadan bir güç sorunsalı da yaratmıştır. Makinelerin insan zekasını taklit edebileceği fikri, bu teknolojiye sahip olanların — belirli ülkeler, kurumlar ve şirketler — muazzam bir avantaj elde edeceği anlamına geliyordu. 1956'da bu güç dinamiği yalnızca ABD askeri-endüstriyel kompleksi ile akademi arasındaki ilişkiyi kapsıyordu; günümüzde ise küresel bir boyut kazanarak, yapay zeka geliştirilmesindeki coğrafi ve ekonomik eşitsizlikler biçiminde kendini göstermektedir. Dartmouth'un kurucu vizyonu, "kimin için yapay zeka?" sorusunu sormadan "yapay zeka nasıl?" sorusuna odaklanmıştır — bu eksiklik, alanın etik olgunlaşmasının on yıllarca gecikmesine katkıda bulunmuştur.
7. Güncel Uygulamalar ve Miras
Dartmouth Konferansı'nın mirası, yetmiş yılı aşkın bir süre sonra yapay zekanın her alanında hissedilmektedir.
Sembolik Yapay Zeka ve Uzman Sistemler. Konferansta Logic Theorist ile başlayan sembolik yaklaşım, 1960'lar ve 1970'lerde uzman sistemlere (expert systems) dönüşmüştür. Edward Feigenbaum'un DENDRAL ve MYCIN gibi sistemleri, Dartmouth'ta tartışılan "makinelerin soyutlama yapması" fikrini somutlaştırmıştır [13]. Günümüzde sembolik yapay zeka, bilgi grafikleri (knowledge graphs), mantıksal çıkarım sistemleri ve açıklanabilir yapay zeka (explainable AI) alanlarında varlığını sürdürmektedir.
Makine Öğrenmesi. Konferansta tartışılan "kendini iyileştiren programlar" fikri, Arthur Samuel'in dama programından günümüzün derin öğrenme (deep learning) devrimine uzanan bir soy ağacının başlangıcıdır [14]. Konferansta bağlantıcı ve sembolik yaklaşımlar arasında başlayan gerilim, 2010'lardan itibaren sinir ağlarının kesin zaferiyle sonuçlanmıştır — ancak son yıllarda nöro-sembolik (neuro-symbolic) yaklaşımlarla her iki geleneğin birleştirilmesi çabaları yoğunlaşmıştır.
Doğal Dil İşleme. Teklif metninde öngörülen "bilgisayarların dili kullanması" hedefi, 2020'lerde büyük dil modelleri (large language models) ile daha önce hayal edilemeyecek düzeylerde gerçekleşmiştir [9]. GPT, Claude ve Gemini gibi modeller, Dartmouth'taki vizyonun teknik araçlarla buluşmasının somut ürünleridir.
Akademik Miras. Konferans, dünya çapında yapay zeka araştırma merkezlerinin kurulmasına doğrudan yol açmıştır. McCarthy ve Minsky, 1958'de MIT Yapay Zeka Projesini kurmuşlardır; McCarthy 1962'de Stanford Yapay Zeka Laboratuvarı'nı (SAIL) kurmuştur [12]. Newell ve Simon, Carnegie Mellon Üniversitesi'nde bilişsel bilim ve yapay zeka araştırmalarının merkezini inşa etmişlerdir [34]. Bu kurumlar, nesiller boyu araştırmacı yetiştirmiş ve alanın akademik geleneğini oluşturmuştur. 2006 yılında Dartmouth College, konferansın 50. yıldönümünü kutlamak için AI@50 etkinliğini düzenlemiş ve hayatta kalan orijinal katılımcıları bir araya getirmiştir — bu etkinlik, konferansın tarihsel öneminin kurumsal olarak tescillendiği bir andır [10].
Abartı Döngülerinin Başlangıcı. Konferans ayrıca önemli bir tarihsel ders niteliğindedir: aşırı iyimserliğin hayal kırıklığına, hayal kırıklığının "Yapay Zeka Kışı"na (AI Winter), kışın ise yeni bir bahar mevsimine yol açtığı döngüsel bir yapı, yapay zeka tarihinin leitmotifidir [12]. Dartmouth'taki iyimserlik, bu döngünün ilk zirvesini temsil etmektedir. 1960'ların sonu ve 1970'lerin başında yaşanan ilk hayal kırıklığı dalgası, doğrudan Dartmouth'ta belirlenen iddialı hedeflerin tutulamamasından kaynaklanmıştır — Lighthill Raporu (1973), İngiltere'de yapay zeka araştırmalarının fonlanmasının büyük ölçüde kesilmesine yol açmıştır [13]. Bu döngüsel yapıyı anlamak, günümüzdeki yapay zeka heyecanını — ve olası hayal kırıklıklarını — değerlendirebilmek için kritik bir tarihsel perspektif sunmaktadır.
8. Bölüm Özeti
1956 Dartmouth Konferansı, yapay zekanın bağımsız bir araştırma disiplini olarak resmi doğuşunu simgelemektedir. John McCarthy'nin öncülüğünde, Minsky, Shannon ve Rochester'ın eş organizatörlüğünde gerçekleştirilen bu yaklaşık sekiz haftalık yaz çalıştayı, alana "yapay zeka" adını vermiş, bir araştırma topluluğu oluşturmuş ve sonraki on yılların araştırma gündemini belirlemiştir. Konferansta sunulan Logic Theorist, sembolik yapay zekanın ilk somut ürünü olarak tarihsel bir dönüm noktası oluşturmuştur.
Konferansın kurucu önemi yadsınamaz; ancak aşırı iyimserliği, etik boyutların yokluğu ve katılımcı profilinin homojenliği, alanın sonraki on yıllarda karşılaşacağı sorunların tohumlarını da ekmiştir. Bu bölüm, kitabın genel argümanına şu katkıyı sunmaktadır: yapay zekanın doğuşu, yalnızca teknik bir başarının değil, aynı zamanda kurumsal, sosyal ve politik dinamiklerin ürünüdür; bir disiplinin nasıl adlandırıldığı ve çerçevelendiği, onun gelecek yörüngesini derinden etkiler.
Bir sonraki bölümde, Dartmouth'ta filizlenen fikirlerin en somut teknik ürünlerinden birini ele alacağız: John McCarthy'nin 1958'de yarattığı LISP programlama dili. LISP, konferansta tartışılan sembolik bilgi işleme ihtiyacına doğrudan yanıt olarak tasarlanmış ve on yıllarca yapay zeka araştırmalarının standart dili olmuştur.
9. Kaynakça
[1] Solomonoff, R. J. (1956). Dartmouth Workshop notes [Yayımlanmamış el yazması notlar]. Solomonoff Arşivi.
[2] McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955). A proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Rockefeller Foundation'a sunulan teklif metni. Yeniden basım: AI Magazine, 27(4), 12–14.
[3] Shapiro, S. C. (Ed.). (1992). Encyclopedia of Artificial Intelligence (2. baskı). Wiley.
[4] Goldstine, H. H. (1972). The Computer from Pascal to von Neumann. Princeton University Press.
[5] Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460.
[6] Shannon, C. E. (1948). A mathematical theory of communication. Bell System Technical Journal, 27(3), 379–423.
[7] McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5(4), 115–133.
[8] Wikipedia contributors. (2025). Dartmouth workshop. Wikipedia. https://en.wikipedia.org/wiki/Dartmouth_workshop
[9] McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955). A proposal for the Dartmouth Summer Research Project on Artificial Intelligence. 31 Ağustos 1955 tarihli orijinal teklif metni.
[10] Moor, J. (2006). The Dartmouth College Artificial Intelligence Conference: The next fifty years. AI Magazine, 27(4), 87–91.
[11] McCorduck, P. (2004). Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence (2. baskı). A K Peters/CRC Press.
[12] Crevier, D. (1993). AI: The Tumultuous History of the Search for Artificial Intelligence. Basic Books.
[13] Nilsson, N. J. (2010). The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge University Press.
[14] Russell, S. J., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4. baskı). Pearson.
[15] Kline, R. (2011). Cybernetics, automata studies, and the Dartmouth Conference on Artificial Intelligence. IEEE Annals of the History of Computing, 33(4), 5–16.
[16] Solomonoff, G. (2023). What they did that summer in Dartmouth. IEEE Spectrum. https://spectrum.ieee.org/dartmouth-ai-workshop
[17] Wooldridge, M. (2021). A Brief History of Artificial Intelligence. Flatiron Books.
[18] Dick, S. (2019). Artificial intelligence. Harvard Data Science Review, 1(1). https://hdsr.mitpress.mit.edu/pub/0aytgrau
[19] Nabiyev, V. V. (2021). Yapay Zeka: İnsan-Bilgisayar Etkileşimi (6. baskı). Seçkin Yayıncılık.
[20] Turing, A. M. (1936). On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, s2-42(1), 230–265.
[21] Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
[22] Minsky, M. (1952). A neural-analogue calculator based upon a probability model of reinforcement. Harvard University Psychological Laboratories.
[23] Rockefeller Archive Center. (1955–1957). Dartmouth College – Artificial Intelligence – (Computers). Rockefeller Foundation records, Projects (Grants), Record Group 1.
[24] McCarthy, J. (2006). The Dartmouth Workshop—as planned and as it happened. Stanford University. https://www-formal.stanford.edu/jmc/slides/dartmouth/dartmouth/node1.html
[25] Amio, C. (2025). Who coined the term Artificial Intelligence? https://amiochowdhury.com/ai-name-origin/
[26] Newell, A., & Simon, H. A. (1976). Computer science as empirical inquiry: Symbols and search. Communications of the ACM, 19(3), 113–126.
[27] History of Data Science. (2021). Dartmouth Summer Research Project: The birth of artificial intelligence. https://www.historyofdatascience.com/
[28] McCarthy, J. (1958). Programs with common sense. Proceedings of the Symposium on Mechanisation of Thought Processes, 77–84.
[29] Newell, A., & Simon, H. A. (1956). The logic theory machine: A complex information processing system. IRE Transactions on Information Theory, IT-2(3), 61–79.
[30] Gugerty, L. (2006). Newell and Simon's Logic Theorist: Historical background and impact on cognitive modeling. Proceedings of the Human Factors and Ergonomics Society Annual Meeting, 50(9), 880–884.
[31] Technologists in Sync. (2022). Artificial Intelligence: What is the Dartmouth AI Conference? https://www.technologistsinsync.com/
[32] International Science Council. (2024). AI was born at a US summer camp 68 years ago. https://council.science/blog/ai-was-born-at-a-us-summer-camp-68-years-ago/
[33] Hebb, D. O. (1949). The Organization of Behavior: A Neuropsychological Theory. Wiley.
[34] Simon, H. A. (1996). Models of My Life. MIT Press.
[35] Gardner, H. (1985). The Mind's New Science: A History of the Cognitive Revolution. Basic Books.
10. Tartışma Soruları
1. Analitik: McCarthy "yapay zeka" terimi yerine "hesaplamalı zeka" (computational intelligence) terimini kullansaydı, bu alanın gelişim yörüngesini nasıl etkilerdi? Bir disiplinin adlandırılması, araştırma gündemini ne ölçüde belirler?
2. Karşılaştırmalı: Dartmouth Konferansı'ndaki sembolik yaklaşım (Logic Theorist) ile bir önceki bölümde incelenen SNARC'ın bağlantıcı yaklaşımı arasındaki temel farklar nelerdir? Bu iki yaklaşımın "zeka" tanımları nasıl farklılaşmaktadır?
3. Spekülatif: Dartmouth Konferansı gerçekleşmeseydi ve "yapay zeka" bir disiplin olarak birleştirilmeseydi, "düşünen makineler" araştırmaları sibernetik, otomat kuramı veya bilişsel psikoloji çatısı altında mı devam ederdi? Bu alternatif senaryo, alanın gelişimini hızlandırır mıydı yoksa yavaşlatır mıydı?
4. Etik: Konferansın katılımcı profilinin homojenliği (neredeyse tamamen Amerikalı, erkek, beyaz akademisyenler), yapay zekanın "zeka" tanımını ve araştırma önceliklerini nasıl şekillendirmiş olabilir? Farklı kültürel, cinsiyet ve disipliner perspektiflerin katılımı, yapay zekanın gelişim yörüngesini nasıl değiştirebilirdi?
5. Güncel: Dartmouth'ta öngörülen araştırma konuları — doğal dil işleme, sinir ağları, soyutlama, öğrenme — günümüzde ne düzeyde gerçekleştirilmiştir? Hangi konularda beklentilerin çok ötesine geçilmiş, hangilerinde hâlâ geride kalınmıştır?
6. Analitik: Logic Theorist'in konferansta ilımsız karşılanması, bilim tarihinde öncü çalışmaların genellikle çağdaşları tarafından yeterince takdir edilmemesi olgusunun bir örneği midir? Newell ve Simon'ın sembolik yaklaşımı ile diğer katılımcıların tercihleri arasındaki gerilim, alandaki hangi daha derin paradigma farklarını yansıtmaktadır?
7. Karşılaştırmalı: Dartmouth Konferansı ile aynı dönemdeki Macy Konferansları (sibernetik üzerine) arasında nasıl bir ilişki ve rekabet vardı? McCarthy'nin sibernetikten bilinçli olarak uzaklaşması, yapay zekanın gelişimini olumlu mu yoksa olumsuz mu etkilemiştir?
8. Etik: Dartmouth Konferansı'nda etik tartışmaların tamamen yokluğu, günümüzde yapay zeka etiği alanındaki tartışmalar ışığında nasıl değerlendirilebilir? Yapay zekanın kuruluş aşamasında etik çerçevelerin oluşturulmaması, alanın sonraki gelişiminde hangi sorunlara zemin hazırlamıştır?
9. Spekülatif: Konferansın iyimser katılımcıları, yapay genel zekanın (AGI) "bir yaz boyunca çalışarak" çözülebileceğini düşünüyordu. Günümüzde AGI hedefi hâlâ tartışmalıdır. Dartmouth'taki iyimserlik ile günümüzdeki AGI beklentileri arasında ne tür paralellikler kurulabilir? Yapay zeka tarihindeki "abartı döngüleri" hakkında bu karşılaştırma ne söylemektedir?
10. Güncel: 2020'lerde büyük dil modellerinin (LLM) yükselişi, Dartmouth'ta tartışılan sembolik ve bağlantıcı yaklaşımlar arasındaki gerilimi nasıl dönüştürmüştür? Nöro-sembolik yaklaşımlar (neuro-symbolic AI), Dartmouth'taki iki geleneğin bir sentezi olarak değerlendirilebilir mi?