Geri Yayılım Devrimi
Geri yayılım algoritmasının popülerleşmesi ve sinir ağlarının yeniden canlanması.
1. Giriş
1986 yılının Ekim ayında, Nature dergisinin 323. cildinde üç sayfalık bir makale yayımlandı: "Learning Representations by Back-propagating Errors" [1]. Yazarları — David Rumelhart, Geoffrey Hinton ve Ronald Williams — bu kısa metinde, çok katmanlı yapay sinir ağlarının hatayı geriye doğru yayarak kendi iç temsillerini (internal representations) öğrenebileceğini deneysel olarak gösterdiler [1]. Bu makale, yapay zeka tarihinin en etkili yayınlarından biri haline gelecek ve bağlantıcı (connectionist) paradigmanın yeniden doğuşunu kesinleştiren dönüm noktası olarak tarihe geçecekti.
Geri yayılım algoritması (backpropagation), özünde zarif bir matematiksel fikre dayanmaktadır: bir sinir ağının çıktısındaki hatayı, zincir kuralı (chain rule) aracılığıyla ağın her katmanındaki ağırlıklara "geriye doğru yayarak" her ağırlığın hataya ne kadar katkıda bulunduğunu hesaplamak ve ardından bu ağırlıkları hatayı azaltacak yönde güncellemek [2]. Bu fikir, 1986'da tamamen yeni değildi — otomatik diferansiyasyonun ters modu olarak 1970'de Seppo Linnainmaa tarafından tanımlanmış [3], sinir ağlarına uygulanması 1974'te Paul Werbos tarafından önerilmişti [4]. Ancak Rumelhart, Hinton ve Williams'ın katkısı, algoritmanın sinir ağları bağlamında pratik olarak çalıştığını göstermeleri, "gizli temsiller" (hidden representations) kavramını merkeze almaları ve sonuçlarını bilim dünyasının en prestijli dergilerinden birinde yayımlamalarıydı [1].
Bu gelişmenin tarihsel bağlamını kavramak için, bir önceki bölümde ele aldığımız 1982 dönemine geri dönmek gerekmektedir. Hopfield ağları, sinir ağlarına fizik topluluğunun entelektüel meşruiyetini kazandırmıştı; Boltzmann makineleri, gizli katmanlar ve olasılıksal öğrenme kavramlarını sinir ağı literatürüne taşımıştı [5]. Ancak bu modellerin pratik sınırlılıkları vardı: Hopfield ağları denetimli öğrenme yapamıyordu, Boltzmann makinelerinin öğrenme algoritması ise son derece yavaştı [6]. Geri yayılım, bu darboğazı aşarak çok katmanlı sinir ağlarının etkin biçimde eğitilmesini mümkün kıldı ve bağlantıcılığın (connectionism) 1980'lerin sonunda tam anlamıyla bir "rönesans" yaşamasının anahtarı oldu [7].
1986 aynı zamanda, Rumelhart, McClelland ve PDP Araştırma Grubu'nun iki ciltlik Parallel Distributed Processing: Explorations in the Microstructure of Cognition (PDP) kitabının yayımlandığı yıldır [2]. Bu eser, geri yayılımı çok daha geniş bir bağlantıcı bilişsel bilim çerçevesine yerleştirmiş ve sinir ağlarının yalnızca mühendislik araçları değil, aynı zamanda insan bilişinin modelleri olabileceğini savunmuştur [2]. PDP kitabı, bilişsel bilim, psikoloji, dilbilim ve yapay zeka alanlarında bir paradigma değişimini tetikleyerek "bağlantıcılık devrimi" olarak adlandırılan entelektüel hareketi başlatmıştır [8].
Bu bölümde, geri yayılım algoritmasının çok katmanlı tarihsel kökenlerini, Rumelhart-Hinton-Williams makalesinin teknik içeriğini ve devrimci etkisini, PDP hareketinin entelektüel bağlamını, algoritmanın döneminde ve sonrasında aldığı eleştirileri, ve günümüz derin öğrenme devrimine uzanan mirasını kapsamlı biçimde ele alacağız.
2. Literatür Taraması
Geri yayılım algoritmasının tarihsel ve bilimsel kökenleri üzerine akademik literatür, bilgisayar bilimi, matematik, nörobilim ve bilişsel bilim disiplinlerinin kesişiminde geniş ve katmanlı bir külliyat oluşturmaktadır.
Rumelhart, Hinton ve Williams'ın (1986) Nature makalesi, bu alanın en çok atıf alan kaynaklarından biridir [1]. Makale, geri yayılım algoritmasının çok katmanlı ağlarda uygulanabilirliğini deneysel olarak göstermiş ve "gizli birimler" kavramını yapay zeka sözlüğüne taşımıştır. Aynı yazarların PDP kitabının sekizinci bölümünde yer alan genişletilmiş versiyonu, algoritmanın matematiksel ayrıntılarını ve daha fazla deneysel sonucu içermektedir [2]. Bu iki kaynak birlikte, geri yayılımın modern anlayışının kurucu metinleridir.
Algoritmanın entelektüel kökenlerini anlamak için birkaç öncül çalışmaya bakmak zorunludur. Linnainmaa'nın (1970) doktora tezinde tanıttığı "otomatik diferansiyasyonun ters modu," geri yayılımın matematiksel çekirdeğini oluşturmaktadır [3]. Werbos'un (1974) Harvard doktora tezi, bu tekniği sinir ağlarının eğitimine uygulamayı ilk kez açıkça öneren çalışmadır [4]. Ancak Werbos'un çalışması, yayımlandığı dönemde sinir ağları araştırmalarının "kış" döneminde olması nedeniyle yeterince ilgi görmemiştir [9]. Parker'ın (1985) MIT teknik raporu, geri yayılımı bağımsız olarak yeniden keşfeden bir diğer çalışmadır [10]. Le Cun'un (1985) Fransızca yayımlanan tezi de benzer fikirleri bağımsız olarak geliştirmiştir [11]. Bu çoklu bağımsız keşif, geri yayılımın entelektüel olarak "zamanı gelmiş" bir fikir olduğuna işaret etmektedir.
Minsky ve Papert'in (1969) Perceptrons kitabı, geri yayılımın neden devrimci karşılandığını anlamak için zorunlu bir arka plan kaynağıdır [12]. Bu kitap, tek katmanlı sinir ağlarının doğrusal olarak ayrılamayan problemleri çözemeyeceğini göstererek bağlantıcı araştırmaları on yıldan fazla süreyle fiilen dondurmuştu [13]. Geri yayılım, çok katmanlı ağlarla bu sınırlılığı aştığı için, Minsky-Papert eleştirisine en güçlü yanıt olarak değerlendirilmiştir [7].
Rumelhart, McClelland ve PDP Araştırma Grubu'nun (1986) iki ciltlik Parallel Distributed Processing eseri, geri yayılımı bağlantıcı bilişsel bilimin daha geniş çerçevesine yerleştiren temel kaynaktır [2]. Birinci cilt temelleri, ikinci cilt ise psikolojik ve biyolojik modelleri ele almaktadır. Bu eserin bilişsel bilim üzerindeki etkisini analiz eden en kapsamlı çalışmalardan biri, Bechtel ve Abrahamsen'in (2002) Connectionism and the Mind kitabıdır [8]. Smolensky'nin (1988) "On the Proper Treatment of Connectionism" makalesi, bağlantıcılığın bilişsel bilim içindeki teorik konumunu en sistematik biçimde tartışan çalışmadır [14].
Stuart Russell ve Peter Norvig'in (2021) Artificial Intelligence: A Modern Approach ders kitabı, geri yayılımı yapay zeka tarihinin genel çerçevesinde değerlendirmiş ve algoritmanın derin öğrenme devrimine giden yoldaki rolünü tartışmıştır [7]. Nils Nilsson'ın (2010) The Quest for Artificial Intelligence eseri, geri yayılımın tarihsel bağlamını ayrıntılı biçimde aktarmıştır [15]. Margaret Boden'ın (2006) Mind as Machine kitabı, bağlantıcılık devrimini bilişsel bilim perspektifinden incelemiş ve geri yayılımın felsefi boyutlarını tartışmıştır [16].
Derin öğrenme tarihini derleyen Schmidhuber'in (2015) kapsamlı makalesi, Werbos'tan Rumelhart'a ve sonrasına uzanan geri yayılım kronolojisini en ayrıntılı biçimde belgelemiştir [17]. Goodfellow, Bengio ve Courville'in (2016) Deep Learning ders kitabı, geri yayılımın matematiksel temellerini modern bir perspektifle sunmuş ve algoritmanın günümüz derin öğrenme uygulamalarıyla bağlantısını kurmuştur [18]. LeCun, Bengio ve Hinton'ın (2015) Nature dergisindeki derin öğrenme derlemesi, geri yayılımı otuz yıllık bir perspektiften değerlendirmiştir [19].
Olazaran'ın (1996) bilim sosyolojisi çalışması, Perceptrons tartışmasının bağlantıcı araştırmaları nasıl marjinalleştirdiğini ve geri yayılımın bu marjinalleşmeyi nasıl tersine çevirdiğini sosyolojik açıdan analiz etmiştir [13]. Crevier'in (1993) AI: The Tumultuous History of the Search for Artificial Intelligence eseri, geri yayılımı yapay zekanın çalkantılı tarihçesinin bir parçası olarak konumlandırmıştır [9]. McCorduck'ın (2004) Machines Who Think eseri, bağlantıcılık devriminin hem teknik hem de kültürel dinamiklerini aktarmıştır [20].
Türkçe literatürde, Nabiyev'in (2021) Yapay Zeka ders kitabı geri yayılım algoritmasını Türk okuyucuya tanıtmaktadır [21]. Alpaydın'ın (2020) Introduction to Machine Learning eseri, geri yayılımı makine öğrenmesinin tarihsel gelişimi içinde kapsamlı biçimde ele almıştır [22].
3. Tarihsel ve Teorik Arka Plan
3a. Geri Yayılımın Çok Katmanlı Entelektüel Kökenleri
Geri yayılım algoritmasının tarihi, basit bir "icat" öyküsü değil, birden fazla disiplinde eş zamanlı olarak olgunlaşan fikirlerin sonunda buluşmasının öyküsüdür. Bu entelektüel soy ağacı, en az üç farklı kökten beslenmektedir: matematiksel optimizasyon, nörobilimden esinlenen hesaplama ve kontrol teorisi.
Matematiksel kökte, kalkülüsün zincir kuralı (chain rule) — bileşik fonksiyonların türevlerinin hesaplanmasına yarayan temel kural — geri yayılımın özüdür [18]. Bu kuralın otomatik hesaplama bağlamında sistematik biçimde uygulanması, Linnainmaa'nın (1970) Helsinki Üniversitesi'ndeki yüksek lisans tezinde gerçekleşmiştir [3]. Linnainmaa, sayısal algoritmalardaki yuvarlama hatalarını analiz etmek için "ters mod otomatik diferansiyasyon" (reverse mode automatic differentiation) yöntemini geliştirmişti [3]. Bu yöntem, bir hesaplama grafiğindeki türevleri, çıktıdan girdiye doğru — yani "geriye" — verimli biçimde hesaplamaya olanak tanıyordu [17]. Geri yayılım, esasen bu matematiksel tekniğin sinir ağlarına uygulanmış özel halidir.
Nörobilim kökenli ikinci damar, Frank Rosenblatt'ın perceptron'undan (1958) başlayarak, sinir ağlarının öğrenmesi sorusuyla uğraşan araştırmacıların birikiminden oluşmaktadır [7]. Rosenblatt'ın tek katmanlı perceptron'u, "Perceptron yakınsama teoremi" sayesinde doğrusal olarak ayrılabilir problemler için öğrenme garantisi sunuyordu [12]. Ancak Minsky ve Papert (1969), tek katmanlı ağların XOR gibi doğrusal olarak ayrılamayan fonksiyonları temsil edemeyeceğini matematiksel olarak göstermişti [12]. Çözüm, çok katmanlı ağlar kullanmaktı; ancak "gizli katmanlardaki ağırlıkları nasıl güncelleyeceğiz?" sorusu on yıldan fazla yanıtsız kaldı [15]. Geri yayılım, işte bu sorunun yanıtıydı.
Kontrol teorisi kökenli üçüncü damar, Norbert Wiener'in sibernetik geleneğinden ve Arthur Bryson ile Yu-Chi Ho'nun (1969) optimal kontrol kuramındaki "adjoint yöntemi"nden beslenmektedir [23]. Bryson ve Ho'nun dinamik optimizasyon bağlamında tanımladığı gradyan hesaplama tekniği, matematiksel olarak geri yayılımla yakından ilişkilidir [17]. Werbos (1974), doktora tezinde bu bağlantıyı açıkça kurarak "hata geri yayılımını" sinir ağlarının eğitimi için önermişti [4]. Ancak Werbos'un tezi, Harvard Üniversitesi'nde uygulamalı matematik bölümünde yazılmıştı ve yapay zeka topluluğu tarafından uzun süre fark edilmedi [9].
3b. Kıştan Bahara: 1982-1986 Arası Geçiş Dönemi
Bir önceki bölümde ele aldığımız 1982 gelişmeleri — Hopfield ağları ve Boltzmann makineleri — sinir ağı araştırmalarının yeniden canlanması için gerekli entelektüel ve kurumsal iklimi yaratmıştı [5]. Hopfield'ın enerji fonksiyonu tabanlı modeli, fizik topluluğunun sinir ağlarına ilgisini çekmişti [5]; Boltzmann makineleri ise gizli birimler ve olasılıksal öğrenme kavramlarını tanıtmıştı [6]. Ancak bu modellerin pratik kısıtlamaları ciddi birer darboğaz oluşturuyordu.
Hopfield ağları çağrışımsal bellek olarak çalışıyordu, ama denetimli öğrenme yapamıyordu — yani belirli bir girdiye belirli bir çıktı üretmeyi öğrenemiyordu [5]. Boltzmann makineleri denetimli öğrenme yapabiliyordu, ancak öğrenme algoritması istatistiksel örnekleme gerektirdiğinden aşırı yavaştı — pratik boyutlardaki ağları eğitmek hesaplama açısından olanaksıza yakındı [6]. Bu durum, bağlantıcı paradigmanın yeniden doğuşu için bir "darboğaz" oluşturuyordu: sinir ağlarına ilgi artmıştı, ancak onları eğitmek için etkili bir yöntem yoktu [7].
İşte geri yayılım, tam da bu darboğazı aştı. Gradyan iniş (gradient descent) yöntemiyle birleştirildiğinde, çok katmanlı ağların ağırlıklarını verimli biçimde güncelleyerek denetimli öğrenmeyi pratik hale getirdi [1]. Boltzmann makinelerinin saatlerce süren eğitim süreci, geri yayılımla dakikalara iniyordu [18].
3c. Kurumsal ve Finansal Altyapı
1980'lerin ortasında, sinir ağı araştırmalarını destekleyen kurumsal altyapı hızla genişliyordu. ABD'de DARPA'nın Stratejik Hesaplama İnisiyatifi (1983), yapay zeka araştırmalarına büyük kaynaklar akıtıyordu [24]. Japonya'nın Beşinci Nesil Bilgisayar Projesi'nin yarattığı rekabet baskısı, ABD ve Avrupa'da yapay zeka fonlamasını artırmıştı [9]. Uzman sistem endüstrisi patlama yaşıyordu ve yapay zekaya ticari ilgi doruk noktasındaydı [7].
Bu ortamda, San Diego'daki Kaliforniya Üniversitesi (UCSD) bünyesindeki PDP Araştırma Grubu kritik bir rol oynadı. Rumelhart ve McClelland'ın ortak liderliğindeki bu grup, bilişsel bilimciler, psikologlar ve bilgisayar bilimcilerinden oluşan disiplinler arası bir ekipti [2]. Grup, Sloan Vakfı ve Sistem Geliştirme Vakfı'nın (System Development Foundation) fonlamasıyla çalışıyordu [2]. Carnegie Mellon Üniversitesi'ndeki Hinton da grubun aktif üyelerinden biriydi ve Boltzmann makineleri üzerindeki çalışmalarını geri yayılıma doğru genişletmişti [6].
4. Ana Konu Analizi
4a. Temel Mekanizma: Geri Yayılım Algoritması
Geri yayılım algoritmasını anlamak için, önce çok katmanlı bir sinir ağının yapısını kavramak gerekmektedir. Tipik bir ileri beslemeli (feedforward) sinir ağı, üç tür katmandan oluşur: girdi katmanı (input layer), bir veya daha fazla gizli katman (hidden layers) ve çıktı katmanı (output layer) [18]. Her katmandaki birimler (nöronlar), bir sonraki katmandaki birimlere ağırlıklı bağlantılarla bağlıdır [1]. Her birim, kendisine gelen ağırlıklı girdilerin toplamını bir aktivasyon fonksiyonundan — tipik olarak sigmoid fonksiyonundan, σ(x) = 1/(1+e^(-x)) — geçirerek çıktısını üretir [1].
Ağın eğitimi, denetimli öğrenme çerçevesinde gerçekleşir: ağa bir girdi verilir, ağ bir çıktı üretir, bu çıktı ile istenen çıktı (hedef) arasındaki fark bir hata (kayıp) fonksiyonu ile ölçülür ve bu hata mümkün olduğunca küçültülmeye çalışılır [18]. Hata fonksiyonu olarak genellikle ortalama karesel hata (mean squared error) kullanılır [1]:
E = ½ Σ_j (t_j - o_j)²
Burada t_j hedef çıktı, o_j ise ağın gerçek çıktısıdır [1].
Geri yayılım algoritması, bu hatanın her ağırlığa göre kısmi türevini — yani gradyanını — hesaplar [1]. Zincir kuralının ardışık uygulanmasıyla, hata çıktı katmanından gizli katmanlara doğru "geriye yayılır" [2]. Çıktı katmanındaki bir birim için hata sinyali doğrudan hesaplanabilir; gizli katmanlardaki bir birim için ise, o birimin bağlı olduğu bir sonraki katmandaki birimlerin hata sinyallerinin ağırlıklı toplamı kullanılır [1]. Bu rekürsif yapı, algoritmanın "geri yayılım" adını almasının nedenidir.
Matematiksel olarak, j. birim için hata sinyali δ_j hesaplandıktan sonra, i. birimden j. birime olan ağırlık w_ij şu şekilde güncellenir [1]:
Δw_ij = η × δ_j × o_i
Burada η öğrenme hızı (learning rate) ve o_i gönderen birimin çıktısıdır [1]. Bu güncelleme, gradyan iniş (gradient descent) yönteminin uygulanmasıdır — her ağırlık, hatayı azaltacak yönde küçük bir adım atar [18].
Rumelhart, Hinton ve Williams'ın (1986) makalesinin en önemli katkısı, bu algoritmanın çok katmanlı ağlarda "gizli temsiller" öğrenebileceğini deneysel olarak göstermesidir [1]. Araştırmacılar, birkaç klasik problem üzerinde — özellikle XOR problemi, aile ilişkileri problemi ve simetri algılama problemi — ağların gizli katmanlarında anlamlı iç temsiller geliştirdiğini göstermişlerdir [1]. Bu, Minsky ve Papert'in "çok katmanlı ağlar eğitilemez" eleştirisine doğrudan bir yanıttı [12].
XOR Problemi ve Çözümü. XOR (exclusive or), tek katmanlı bir perceptron'un çözemediği en basit doğrusal olarak ayrılamayan problemdir [12]. Geri yayılım ile eğitilen iki katmanlı bir ağ, gizli katmanda uygun temsiller geliştirerek XOR problemini kolayca çözmektedir [1]. Bu başarı, sembolik anlamda büyüktür: Minsky ve Papert'in 1969'da işaret ettiği sınırlılık, çok katmanlı ağlar ve geri yayılım ile aşılmıştır [7].
Aile İlişkileri Problemi. Hinton'ın tasarladığı bu deney, ağa "X, Y'nin babası" gibi aile ilişkilerini öğretmeyi hedefliyordu [2]. Ağ, gizli katmanında "nesil," "cinsiyet," "aile dalı" gibi soyut özellikleri temsil eden aktivasyon kalıpları geliştirmişti [2]. Bu sonuç, sinir ağlarının yalnızca girdi-çıktı eşlemeyi değil, verideki soyut yapıları keşfetmeyi de öğrenebileceğini gösteriyordu — bu, bilişsel bilim açısından son derece heyecan verici bir bulguydu [8].
4b. Kilit Aktörler ve Katkıları
David Rumelhart (1942–2011) PDP hareketinin entelektüel lideri ve geri yayılımın en etkili savunucusuydu [20]. Stanford ve ardından UCSD'de bilişsel psikoloji profesörü olan Rumelhart, daha önce şema teorisi (schema theory) ve etkileşimli aktivasyon modelleri üzerinde çalışmıştı [2]. Rumelhart'ın katkısı yalnızca teknik değildi; geri yayılımı bilişsel bilim bağlamına yerleştirmek, PDP kitabını organize etmek ve bağlantıcı hareketi bir "paradigma" olarak konumlandırmak konusunda belirleyici bir rol oynadı [8]. Rumelhart, 2000'li yılların başında Lewy cisimcikli demans teşhisi almış ve 2011'de hayatını kaybetmiştir [20]. 2001'de Rumelhart Ödülü (David E. Rumelhart Prize for Contributions to the Formal Analysis of Human Cognition) onun adıyla kurulmuştur.
Geoffrey Hinton (1947–) bilgisayar bilimi ve bilişsel bilim alanlarında çalışan, sinir ağları araştırmalarının en etkili isimlerinden biridir [6]. İngiliz kökenli Hinton, Cambridge Üniversitesi'nde deneysel psikoloji okuduktan sonra Edinburgh Üniversitesi'nde yapay zeka doktorası yapmıştır [19]. Hinton, daha önce Boltzmann makineleri üzerindeki çalışmasıyla gizli katmanlar ve olasılıksal öğrenme kavramlarını geliştirmişti [6]. Geri yayılım makalesindeki katkısı, özellikle gizli temsiller kavramının bilişsel bilim boyutuyla ilgiliydi [1]. Hinton, sonraki on yıllarda derin öğrenmenin gelişiminde merkezi bir rol oynamaya devam edecek — 2006'daki derin inanç ağları çalışması [25] ve 2012'deki AlexNet başarısı [26] bu sürecin kilometre taşlarıdır. Hinton, 2024 yılında John Hopfield ile birlikte Nobel Fizik Ödülü'nü almıştır [27].
Ronald Williams Brown Üniversitesi'nde bilgisayar bilimi profesörüydü ve geri yayılım makalesinin matematiksel titizliğinin önemli bir kısmından sorumluydu [1]. Williams, ayrıca pekiştirmeli öğrenme alanına REINFORCE algoritmasıyla (1992) önemli katkılarda bulunmuştur [28].
Paul Werbos (1947–) geri yayılımın sinir ağlarına uygulanmasını ilk kez açıkça öneren araştırmacıdır [4]. Werbos, 1974 Harvard doktora tezinde "dinamik geri beslemeli ağların ters modda diferansiyasyonu" fikrini geliştirmişti [4]. Ancak Werbos'un çalışması, yapay zeka kışının ortasında yayımlanması ve bilgisayar bilimi yerine uygulamalı matematik alanında yazılması nedeniyle uzun süre göz ardı edilmiştir [9]. Werbos, geri yayılımın tarihsel önceliği konusunda haklı olarak tanınmayı talep etmiş ve Rumelhart grubunun çalışmasını takdir etmekle birlikte kendi katkısının yeterince bilinmediğinden şikayet etmiştir [17].
Seppo Linnainmaa geri yayılımın matematiksel çekirdeği olan ters mod otomatik diferansiyasyonu 1970'de tanımlayan Finlandiyalı matematikçidir [3]. Linnainmaa'nın çalışması, sinir ağlarıyla doğrudan ilgili olmasa da, geri yayılımın hesaplamalı verimliliğinin temelini oluşturmaktadır [17].
Bu aktörler arasındaki ilişki, işbirliğinden çok paralel keşif dinamiğini yansıtmaktadır. Werbos, Linnainmaa ve Parker bağımsız olarak benzer fikirlere ulaşmışlardı; ancak Rumelhart, Hinton ve Williams, bu fikirleri en etkili biçimde sentezleyen, deneysel olarak doğrulayan ve bilim dünyasına sunan ekip olmuştur [17].
4c. PDP Hareketi: Bağlantıcılık Devrimi
Geri yayılım algoritması, daha geniş bir entelektüel hareketin — Paralel Dağıtık İşleme (Parallel Distributed Processing, PDP) veya bağlantıcılık (connectionism) hareketinin — en güçlü aracıydı [2]. Rumelhart ve McClelland'ın editörlüğünde yayımlanan iki ciltlik PDP kitabı, bu hareketin manifestosu niteliğindeydi [2].
PDP yaklaşımı, bilişsel süreçlerin — algılama, bellek, dil, öğrenme — çok sayıda basit biçimde birbirine bağlı işlem biriminin paralel aktivasyonundan ortaya çıktığını savunuyordu [2]. Bu görüş, sembolik yapay zeka ve klasik bilişsel bilimin "bilgi, açık kurallar ve semboller biçiminde temsil edilir ve sıralı olarak işlenir" varsayımına doğrudan meydan okuyordu [8]. PDP modellerinde bilgi, ağırlıklarda dağıtık biçimde depolanıyordu — tek bir kavram, çok sayıda bağlantı ağırlığının birlikte oluşturduğu bir aktivasyon kalıbıyla temsil ediliyordu [2].
Bu paradigma değişiminin bilişsel bilim üzerindeki etkisi derindir. Elman'ın (1990) basit tekrarlayan ağı (simple recurrent network), dilin sıralı yapısının bağlantıcı modellerle nasıl işlenebileceğini göstermiştir [29]. Seidenberg ve McClelland'ın (1989) okuma modeli, İngilizce kelimelerin sesletiminin geri yayılımla eğitilen bir sinir ağı tarafından öğrenilebildiğini kanıtlamıştır [30]. Bu modeller, dilbilim ve psikolojide kural tabanlı yaklaşımlara ciddi alternatifler sunmuş ve yoğun tartışmalara yol açmıştır [14].
4d. Dönem İçindeki Yeri ve Genel YZ Tarihindeki Konumu
Geri yayılım, 1986'da yayımlandığında yapay zeka topluluğunda büyük bir heyecan yaratmıştır [9]. Sinir ağları araştırmaları, on yılı aşkın bir "kış"ın ardından dramatik biçimde canlanmıştır. 1987'de kurulan Neural Information Processing Systems (NIPS, bugünkü NeurIPS) konferansı, bu canlanmanın kurumsal ifadesidir [15]. Sinir ağları alanına yeni araştırmacılar akın etmiş, fonlama artmış ve ticari uygulamalar geliştirilmeye başlanmıştır [9].
Geri yayılımın genel yapay zeka tarihi açısından önemi çok boyutludur. Birincisi, "gizli katmanlardaki öğrenme" problemini çözerek, çok katmanlı sinir ağlarının pratik kullanımını mümkün kılmıştır [1]. Bu olmadan, günümüzün derin öğrenme devriminin kavramsal temeli eksik kalırdı. İkincisi, "temsil öğrenme" (representation learning) kavramını — ağın kendi iç temsillerini veriden otomatik olarak öğrenmesi fikrini — yapay zekanın merkezine taşımıştır [19]. Bu fikir, günümüz büyük dil modellerinin (large language models) ve bilgisayarlı görü sistemlerinin temel çalışma ilkesidir. Üçüncüsü, sembolik yapay zeka paradigmasına güçlü bir alternatif sunarak, alandaki çoğulculuğu (pluralism) beslemiştir [7]. Dördüncüsü, yapay zeka ile bilişsel bilim arasındaki köprüyü yeniden inşa etmiştir — PDP hareketi, sinir ağlarının yalnızca mühendislik araçları değil, aynı zamanda bilişsel modeller olduğunu savunmuştur [8].
Ancak geri yayılımın hemen bir "devrim" olduğunu söylemek, tarihi basitleştirmek olur. Algoritma, 1990'ların ortasında destek vektör makineleri (SVM) ve diğer istatistiksel yöntemlerin yükselişiyle görece geri planda kalmıştır [18]. Sinir ağlarının tam potansiyeline ulaşması — derin öğrenme devrimi — ancak 2006'daki ön eğitim teknikleri [25] ve 2012'deki ImageNet başarısıyla [26] gerçekleşmiştir. Geri yayılım, bu gecikmiş devrimin "tohumunu" ekmiştir.
5. Eleştirel Değerlendirme
Geri yayılım algoritması, hem döneminde hem de sonrasında çeşitli düzlemlerde eleştirilere maruz kalmıştır.
Biyolojik gerçekçilik eleştirisi. Geri yayılımın en sık dile getirilen eleştirisi, biyolojik sinir sistemlerinde doğrudan bir karşılığının bulunmamasıdır [16]. Beyindeki sinaptik öğrenme, yerel (local) mekanizmalara dayanmaktadır — bir sinaps, yalnızca kendisine yakın nöronların aktivitesine dayalı olarak güncellenir [18]. Oysa geri yayılım, hatanın ağ boyunca "geriye" taşınmasını gerektirmektedir — bu, biyolojik nöronlar arasında hata sinyallerinin tam ve hassas biçimde iletilmesini varsayar [16]. Francis Crick (1989), bu sorunu açıkça dile getirerek "beyin geri yayılım kullanmıyor" argümanını ileri sürmüştür [31]. Ancak son yıllarda, "tahmine dayalı kodlama" (predictive coding) ve "yerel öğrenme kuralları" üzerine araştırmalar, geri yayılıma benzer hesaplamaların biyolojik olarak mümkün olabileceğini göstermeye başlamıştır [18].
Yerel minimum ve gradyan sorunları. Geri yayılım, gradyan iniş kullandığı için yerel minimumlara — hata yüzeyindeki en derin nokta olmayan çukurlara — takılabilir [2]. Bu sorun, 1990'larda ciddi bir engel olarak görülmüştür [7]. Ayrıca derin ağlarda "kaybolan gradyan" (vanishing gradient) problemi — hata sinyalinin ağın derin katmanlarına ulaşırken üstel olarak küçülmesi — etkili öğrenmeyi engellemekteydi [32]. Hochreiter'in (1991) diplomarbeit'ı bu sorunu sistematik biçimde belgelemiştir [32]. Bu sorunlar, ancak 2000'lerde ReLU aktivasyon fonksiyonu, batch normalizasyonu ve artık bağlantılar (residual connections) gibi tekniklerle büyük ölçüde aşılmıştır [18].
Sembolik yapay zeka cephesinden eleştiriler. Jerry Fodor ve Zenon Pylyshyn'in (1988) ünlü "Connectionism and Cognitive Architecture" makalesi, bağlantıcılığın sistematik düşünceyi — yani dil gibi bileşimsel (compositional) yapıları — temsil edemeyeceğini savunmuştur [33]. Fodor ve Pylyshyn'e göre, sinir ağları "kahve" ve "fincan" kavramlarını ayrı ayrı temsil edebilse bile, "kahve fincanın içinde" gibi yapısal ilişkileri sistematik biçimde temsil edemezdi [33]. Bu eleştiri, bağlantıcılık ile sembolik bilişsel bilim arasındaki en keskin tartışmalardan birini tetiklemiştir. Smolensky (1988), bağlantıcı temsillerin "alt-sembolik" düzeyde sistematiklik gösterebileceğini savunarak bu eleştiriye yanıt vermiştir [14].
Öncüllerin tanınmaması sorunu. Werbos, geri yayılımın tarihsel önceliğinin Rumelhart grubuna atfedilmesinden haklı biçimde rahatsızlık duymuştur [4]. Bilim tarihçileri, bu durumu "Stigler'in eponimasyon yasası" — bir keşfin gerçek mucidinin değil, onu popülerleştiren kişinin adını taşıması — ile açıklamışlardır [17]. Linnainmaa'nın otomatik diferansiyasyon katkısı ise sinir ağları topluluğu tarafından uzun süre hiç bilinmemiştir [3]. Bu durum, bilimsel keşiflerin çok katmanlı doğasını ve "keşif" ile "popülerleştirme" arasındaki ayrımı sorgulatmaktadır.
Bugünden bakıldığında. Geri yayılımın sınırlılıkları — yerel minimum, kaybolan gradyan, biyolojik gerçekçilik eksikliği — döneminde ciddi engeller gibi görünmüştür; ancak bunların çoğu mühendislik çözümleriyle aşılmıştır [18]. Geri yayılımın temel fikri — türev bilgisini kullanarak ağırlıkları optimize etme — bugün hâlâ derin öğrenmenin ana öğrenme algoritmasıdır [19]. Bu sürekliliğin kendisi, algoritmanın ne denli temel bir katkı olduğunun en güçlü kanıtıdır.
6. Etik ve Toplumsal Boyutlar
Geri yayılım algoritmasının 1986'daki ortaya çıkışı, doğrudan toplumsal etki yaratmaktan çok, onlarca yıl sonra gerçekleşecek derin öğrenme devriminin kavramsal temellerini atmıştır. Ancak bu gecikmiş etki, büyüklüğü itibarıyla son derece derindir.
Karar verme süreçlerinin opaklaşması. Geri yayılımla eğitilen çok katmanlı sinir ağlarının en temel özelliği, kendi iç temsillerini otomatik olarak öğrenmeleridir [1]. Bu özellik, aynı zamanda bir "kara kutu" (black box) sorunu yaratmaktadır: ağın neden belirli bir karar verdiğini anlamak, gizli katmanlardaki temsillerin insan tarafından doğrudan yorumlanamaması nedeniyle son derece güçtür [18]. Günümüzde "açıklanabilir yapay zeka" (explainable AI, XAI) alanındaki araştırmaların büyük bölümü, geri yayılımla eğitilen derin ağların karar mekanizmalarını anlaşılır kılma çabasına ayrılmıştır [7]. Sağlık, hukuk ve finans gibi yüksek riskli alanlarda kullanılan yapay zeka sistemlerinin şeffaflığı, doğrudan geri yayılımın "temsil öğrenme" paradigmasının bir sonucu olarak gündeme gelmiştir.
Güç yoğunlaşması. Geri yayılımla eğitilen büyük sinir ağları, büyük miktarda veri ve hesaplama gücü gerektirmektedir [19]. Bu gereklilik, yapay zeka araştırma ve geliştirmesinin büyük teknoloji şirketlerinde — Google, Meta, Microsoft, OpenAI gibi — yoğunlaşmasına katkıda bulunmuştur. 1986'da bir üniversite laboratuvarında geliştirilmiş olan geri yayılım, günümüzde milyar dolarlık eğitim bütçelerine sahip kurumsal sistemlerin temelini oluşturmaktadır. Bu durum, yapay zeka araştırmalarında erişim eşitsizliği sorununu derinleştirmektedir.
İstihdam ve otomasyon. Geri yayılımın mümkün kıldığı derin öğrenme sistemleri — görüntü tanıma, konuşma tanıma, doğal dil işleme — birçok alanda insan işgücünün yerini alabilecek kapasitededir [19]. 1986'da bir öğrenme algoritması olarak tasarlanan bu teknik, kırk yıl sonra küresel istihdam yapısını dönüştüren bir teknolojinin temeli haline gelmiştir.
Öngörülemeyen sonuçlar. Rumelhart, Hinton ve Williams'ın 1986 makalesi, temsil öğrenmeyi bilişsel bir model olarak sunuyordu [1]. Bu araştırmacılar, algoritmalarının otuz yıl içinde sosyal medya algoritmalarını, yüz tanıma gözetim sistemlerini ve deepfake teknolojilerini mümkün kılacağını öngöremezlerdi. Bu durum, temel araştırmanın toplumsal sonuçlarının öngörülemezliğini gösteren çarpıcı bir örnektir.
7. Güncel Uygulamalar ve Miras
Geri yayılımın mirası, günümüz yapay zeka teknolojisinin neredeyse tamamına nüfuz etmiştir.
Derin Öğrenme Devrimi. 2012'de Krizhevsky, Sutskever ve Hinton'ın AlexNet'i, ImageNet görüntü tanıma yarışmasında önceki yöntemlere büyük farkla üstünlük sağlayarak derin öğrenme devrimini başlatmıştır [26]. AlexNet, esasen geri yayılımla eğitilen çok katmanlı bir evrişimli sinir ağıydı (convolutional neural network) — LeCun'un (1989) geri yayılımı evrişimli ağlara uygulayan öncü çalışmasının ölçeklenmiş bir devamıydı [34]. Bu devrim, geri yayılımın temel ilkesinin — gradyan bilgisini kullanarak çok katmanlı ağları eğitme — doğru donanım (GPU'lar) ve veri (internet çağının büyük veri kümeleri) ile buluştuğunda ne denli güçlü olduğunu göstermiştir [19].
Büyük Dil Modelleri. GPT, Claude, Gemini gibi büyük dil modelleri (large language models), milyarlarca parametreli sinir ağlarının geri yayılımla eğitilmesiyle oluşturulmaktadır [18]. Transformer mimarisi (Vaswani ve ark., 2017), geri yayılımın yeni bir sinir ağı tasarımıyla birleşmesinin ürünüdür [35]. Bu modellerin doğal dil üretme, kod yazma, analiz yapma ve yaratıcı içerik üretme kapasiteleri, 1986'daki küçük XOR ve aile ilişkileri deneylerinden başlayan "temsil öğrenme" vizyonunun dramatik ölçeklenmesidir.
Otomatik Diferansiyasyon Ekosistemi. Geri yayılımın çekirdeğindeki otomatik diferansiyasyon, günümüzde TensorFlow, PyTorch ve JAX gibi derin öğrenme çerçevelerinin temel bileşenidir [18]. Bu çerçeveler, araştırmacıların ve mühendislerin sinir ağı tasarlamalarını, eğitmelerini ve dağıtmalarını büyük ölçüde kolaylaştırmıştır. Linnainmaa'nın 1970'teki matematiksel keşfi, yarım yüzyıl sonra milyarlarca cihazda çalışan yazılım altyapısının temelini oluşturmaktadır.
Bilişsel Bilim Mirası. PDP hareketinin başlattığı bağlantıcı bilişsel bilim geleneği, günümüzde "hesaplamalı bilişsel bilim" (computational cognitive science) alanında yaşamaya devam etmektedir [8]. Sinir ağı modellerinin insan bilişsel süreçlerini — dil öğrenme, kategorizasyon, analoji, bellek — simüle etmesi, deneysel psikoloji ve nörobilim araştırmalarının vazgeçilmez bir aracı haline gelmiştir. Rumelhart ve McClelland'ın 1986'da başlattığı gelenek, bugün beyin ve yapay zeka arasındaki kavramsal köprüyü canlı tutmaktadır.
8. Bölüm Özeti
1986 yılı, yapay zeka tarihinde bir kırılma noktasıdır. Rumelhart, Hinton ve Williams'ın Nature makalesinde sunduğu geri yayılım algoritması, çok katmanlı sinir ağlarının gizli katmanlarında anlamlı iç temsiller öğrenebileceğini deneysel olarak kanıtlayarak, Minsky ve Papert'in 1969'daki eleştirisinin yarattığı on yıldan fazla süren buzul çağını kesin biçimde sona erdirmiştir [1]. Aynı yıl yayımlanan PDP kitabı, geri yayılımı bağlantıcı bilişsel bilimin daha geniş çerçevesine yerleştirerek, sinir ağlarının yalnızca mühendislik araçları değil aynı zamanda bilişsel modeller olduğunu savunmuştur [2].
Geri yayılımın entelektüel tarihi, tek bir "eureka anı" değil, Linnainmaa'nın otomatik diferansiyasyonundan Werbos'un sinir ağı uygulamasına, Parker'ın bağımsız keşfinden Rumelhart grubunun deneysel doğrulamasına uzanan çok katmanlı bir birikimi yansıtmaktadır [17]. Algoritma, döneminde biyolojik gerçekçilik, yerel minimum ve ölçeklenebilirlik eleştirileriyle karşılaşmış; ancak temel fikri — gradyan bilgisini kullanarak çok katmanlı ağları optimize etme — zaman içinde yapay zekanın baskın öğrenme paradigması haline gelmiştir [19].
Bu bölümün kitabın genel argümanına katkısı üç düzeydedir: birincisi, bağlantıcı paradigmanın "kıştan bahara" geçişini tamamlayan kritik adımı belgelemektedir; ikincisi, bir bilimsel fikrin çoklu bağımsız keşfi ve "popülerleştirme" dinamiğini gözler önüne sermektedir; üçüncüsü, temel araştırmanın onlarca yıl sonra gerçekleşecek dönüştürücü toplumsal etkilerinin öngörülemezliğini somutlaştırmaktadır.
Bir sonraki bölümde ele alacağımız Marvin Minsky'nin The Society of Mind (1987) eseri, yapay zeka tarihinin sembolik cephesinden güçlü bir entelektüel yanıt sunacaktır — zekayı çok sayıda basit ajanın etkileşimine dayandıran bu teori, bağlantıcılığın yükselişi karşısında sembolik geleneğin en yaratıcı karşı hamlelerinden birini temsil edecektir.
9. Kaynakça
[1] Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533–536. https://doi.org/10.1038/323533a0
[2] Rumelhart, D. E., McClelland, J. L., & the PDP Research Group. (1986). Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Volume 1: Foundations. MIT Press.
[3] Linnainmaa, S. (1970). The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors. Master's thesis, University of Helsinki.
[4] Werbos, P. J. (1974). Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences. Doctoral dissertation, Harvard University.
[5] Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences, 79(8), 2554–2558. https://doi.org/10.1073/pnas.79.8.2554
[6] Hinton, G. E., & Sejnowski, T. J. (1986). Learning and relearning in Boltzmann machines. In D. E. Rumelhart, J. L. McClelland, & the PDP Research Group (Eds.), Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Volume 1: Foundations (ss. 282–317). MIT Press.
[7] Russell, S., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4. baskı). Pearson.
[8] Bechtel, W., & Abrahamsen, A. (2002). Connectionism and the Mind: Parallel Processing, Dynamics, and Evolution in Networks (2. baskı). Blackwell.
[9] Crevier, D. (1993). AI: The Tumultuous History of the Search for Artificial Intelligence. Basic Books.
[10] Parker, D. B. (1985). Learning Logic. Technical Report TR-47, Center for Computational Research in Economics and Management Science, MIT.
[11] Le Cun, Y. (1985). Une procédure d'apprentissage pour réseau à seuil asymétrique. Proceedings of Cognitiva 85, 599–604.
[12] Minsky, M., & Papert, S. (1969). Perceptrons: An Introduction to Computational Geometry. MIT Press.
[13] Olazaran, M. (1996). A sociological study of the official history of the Perceptrons controversy. Social Studies of Science, 26(3), 611–659. https://doi.org/10.1177/030631296026003003
[14] Smolensky, P. (1988). On the proper treatment of connectionism. Behavioral and Brain Sciences, 11(1), 1–23. https://doi.org/10.1017/S0140525X00052432
[15] Nilsson, N. J. (2010). The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge University Press.
[16] Boden, M. A. (2006). Mind as Machine: A History of Cognitive Science (Cilt 1–2). Oxford University Press.
[17] Schmidhuber, J. (2015). Deep learning in neural networks: An overview. Neural Networks, 61, 85–117. https://doi.org/10.1016/j.neunet.2014.09.003
[18] Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
[19] LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444. https://doi.org/10.1038/nature14539
[20] McCorduck, P. (2004). Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence (2. baskı). A K Peters.
[21] Nabiyev, V. V. (2021). Yapay Zeka: İnsan-Bilgisayar Etkileşimi (6. baskı). Seçkin Yayıncılık.
[22] Alpaydın, E. (2020). Introduction to Machine Learning (4. baskı). MIT Press.
[23] Bryson, A. E., & Ho, Y.-C. (1969). Applied Optimal Control: Optimization, Estimation, and Control. Blaisdell.
[24] Roland, A., & Shiman, P. (2002). Strategic Computing: DARPA and the Quest for Machine Intelligence, 1983–1993. MIT Press.
[25] Hinton, G. E., Osindero, S., & Teh, Y.-W. (2006). A fast learning algorithm for deep belief nets. Neural Computation, 18(7), 1527–1554. https://doi.org/10.1162/neco.2006.18.7.1527
[26] Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). ImageNet classification with deep convolutional neural networks. Advances in Neural Information Processing Systems, 25, 1097–1105.
[27] The Royal Swedish Academy of Sciences. (2024). Press release: The Nobel Prize in Physics 2024. https://www.nobelprize.org/prizes/physics/2024/press-release/
[28] Williams, R. J. (1992). Simple statistical gradient-following algorithms for connectionist reinforcement learning. Machine Learning, 8(3–4), 229–256. https://doi.org/10.1007/BF00992696
[29] Elman, J. L. (1990). Finding structure in time. Cognitive Science, 14(2), 179–211. https://doi.org/10.1207/s15516709cog1402_1
[30] Seidenberg, M. S., & McClelland, J. L. (1989). A distributed, developmental model of word recognition and naming. Psychological Review, 96(4), 523–568. https://doi.org/10.1037/0033-295X.96.4.523
[31] Crick, F. (1989). The recent excitement about neural networks. Nature, 337(6203), 129–132. https://doi.org/10.1038/337129a0
[32] Hochreiter, S. (1991). Untersuchungen zu dynamischen neuronalen Netzen. Diplomarbeit, Technische Universität München.
[33] Fodor, J. A., & Pylyshyn, Z. W. (1988). Connectionism and cognitive architecture: A critical analysis. Cognition, 28(1–2), 3–71. https://doi.org/10.1016/0010-0277(88)90031-5
[34] LeCun, Y., Boser, B., Denker, J. S., Henderson, D., Howard, R. E., Hubbard, W., & Jackel, L. D. (1989). Backpropagation applied to handwritten zip code recognition. Neural Computation, 1(4), 541–551. https://doi.org/10.1162/neco.1989.1.4.541
[35] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30, 5998–6008.
10. Tartışma Soruları
1. Analitik: Geri yayılım algoritması 1970'lerde Werbos tarafından önerildiği halde neden 1986'ya kadar etkili olamamıştır? Bu gecikmeyi açıklamak için teknik, kurumsal ve sosyolojik faktörlerin göreli ağırlıkları nedir?
2. Karşılaştırmalı: Boltzmann makinelerinin öğrenme algoritması ile geri yayılım arasındaki temel farklar nelerdir? Geri yayılımın pratik üstünlüğü nereden kaynaklanmaktadır ve Boltzmann makinelerinin hangi kavramsal katkıları geri yayılımda korunmuştur?
3. Spekülatif: Eğer Rumelhart, Hinton ve Williams 1986'da Nature makalesini yayımlamamış olsaydı, sinir ağı araştırmaları nasıl bir seyir izlerdi? Bağlantıcı paradigma yine de canlanabilir miydi, yoksa sembolik yaklaşımın hakimiyeti daha uzun sürer miydi?
4. Etik: Geri yayılımla eğitilen sinir ağlarının "kara kutu" niteliği — gizli katmanlardaki temsillerin insan tarafından doğrudan yorumlanamaması — hangi etik sorunlara yol açmaktadır? Açıklanabilirlik ile performans arasındaki ödünleşim nasıl yönetilmelidir?
5. Güncel: 1986'daki küçük XOR ve aile ilişkileri deneylerinden günümüzün milyar parametreli büyük dil modellerine uzanan yolda, geri yayılımın temel ilkesi değişmeden kalmış mıdır yoksa niteliksel bir dönüşüm mü geçirmiştir?
6. Karşılaştırmalı: Fodor ve Pylyshyn'in (1988) bağlantıcılığa yönelik "sistematiklik" eleştirisi, günümüzün büyük dil modelleri tarafından çürütülmüş müdür yoksa farklı bir biçimde hâlâ geçerli midir?
7. Analitik: Geri yayılımın çoklu bağımsız keşfi — Linnainmaa, Werbos, Parker, Le Cun, Rumelhart grubu — bilimsel keşiflerin "bireysel deha" mı yoksa "zamanı gelmiş fikir" mi olduğu tartışmasına nasıl katkıda bulunmaktadır?
8. Spekülatif: Geri yayılım yerine biyolojik olarak daha gerçekçi bir öğrenme algoritması — örneğin Hebb kuralının gelişmiş bir versiyonu — yapay zeka tarihinde baskın hale gelmiş olsaydı, günümüz yapay zeka teknolojisi nasıl farklı olurdu?
9. Etik: Geri yayılımın mümkün kıldığı derin öğrenme sistemlerinin büyük veri ve hesaplama gücü gerektirmesi, yapay zeka araştırmalarında güç yoğunlaşmasına nasıl katkıda bulunmaktadır? Bu yoğunlaşmanın demokratik toplumlar açısından riskleri nelerdir?