Bölüm 38 2020Büyük Dil Modelleri

Hibrit Zekâ: İnsan ve Yapay Zekânın Kolektif Gücü

İnsan ve yapay zeka işbirliğinin kolektif gücü ve hibrit zeka kavramı.

hibrit zeka insan-yapay zeka işbirliği kolektif zeka artırılmış zeka karar destek

1. Giriş

Yapay zekâ tarihinin büyük anlatısı, yüzeyden bakıldığında tekil bir hedefe doğru ilerleyen bir çizgi gibi görünür: makineleri insanlar kadar — hatta insanlardan daha — zeki kılmak. Ancak bu anlatının gölgesinde, onunla sürekli çekişen, bazen bastırılan, bazen yeniden patlayan bir karşı-akıntı her zaman var olmuştur: makineleri insanların yerine değil, insanlarla birlikte çalışacak biçimde tasarlamak. İşte 2019 yılında, Darmstadt Teknik Üniversitesi'nden Dominik Dellermann ve meslektaşlarının Business & Information Systems Engineering dergisinde yayımladıkları "Hybrid Intelligence" başlıklı makale, bu karşı-akıntıyı kavramsal bir çerçeveye kavuşturarak akademik sahnenin merkezine taşımıştır [1]. Dellermann, Ebel, Söllner ve Leimeister, hibrit zekâyı (Hybrid Intelligence — HI) "insan ve yapay zekânın birbirini tamamlayıcı güçlerini birleştirerek, tek başlarına ulaşamayacakları karmaşık hedeflere erişme kapasitesi" olarak tanımlamışlardır [1].

Bu tanım ilk bakışta sade görünse de, dönemin yapay zekâ paradigmalarına üç yönden meydan okumaktadır. Birincisi, tam otomasyonu nihai hedef olarak alan "güçlü yapay zekâ" vizyonuna alternatif bir yol sunmuştur [1][2]. İkincisi, yapay zekâyı yalnızca pasif bir karar destek aracı olarak konumlandıran geleneksel yaklaşımı aşmış, insan ve makine arasındaki ilişkiyi karşılıklı öğrenme ve adaptasyon üzerine kurmuştur [1][3]. Üçüncüsü, yapay zekâ tasarımını salt bir mühendislik problemi olmaktan çıkarıp, sosyoteknik bir sistem tasarımı problemi olarak yeniden çerçevelemiştir [1].

2019 yılı, bu kavramın kristalleşmesi için son derece verimli bir zemin sunmuştur. Bir yanda, GPT-2'nin "denetimsiz çoklu görev öğrenme" kapasitesi yapay zekâ topluluğunu heyecanlandırıyor, BERT ve türevleri doğal dil işlemede yeni sınır çizgilerini belirliyordu [4][5]. Öte yanda, GPT-2'nin "çok tehlikeli" bulunarak tam sürümünün yayımlanmaması, algoritmik önyargı skandalları, deepfake endişeleri ve otonom silah tartışmaları, yapay zekânın toplumsal meşruiyetini sarsıyordu [4][6]. Avrupa Birliği'nin GDPR düzenlemesi yürürlüğe girmişti ve yapay zekâ etik ilkeleri üzerine küresel bir yarış başlamıştı [7]. Hibrit zekâ kavramı, tam da bu çift kutuplu gerilimde — yapay zekânın ne tamamen otonom bırakılabileceği ne de yalnızca pasif bir araç olarak kalabileceği bir ara alanda — anlamlı bir konum sunmuştur [1].

Bu bölümde, hibrit zekâ kavramının altmış yılı aşan entelektüel soy ağacını, 2019'daki kavramsal kristalleşme sürecini, üç boyutlu tasarım çerçevesini, centaur satranç ve tıbbi teşhis gibi somut uygulamalarını, otomasyon önyargısından emek adaletine uzanan eleştirel perspektiflerini ve büyük dil modelleri çağında kazandığı yeni anlamları sistematik biçimde inceleyeceğiz. Bölümün temel argümanı şudur: hibrit zekâ, yapay zekâ tarihinin en eski ve en temel gerilimini — "insanın yerini alma" ile "insanı güçlendirme" arasındaki ikileimi — çözmez, ancak bu gerilimi üretken bir tasarım sorusuna dönüştürür.

2. Literatür Taraması

Hibrit zekâ kavramının akademik temelleri, birbirinden farklı ama birbirine bağlı birkaç araştırma geleneğinin kesişim noktasında yer almaktadır. Bu bölümde, kurucu çalışmaları, eleştirel perspektifleri ve güncel yorumları sistematik biçimde ele alacağız.

Kurucu Çerçeve. Dellermann, Ebel, Söllner ve Leimeister'in (2019) makalesi, hibrit zekânın kavramsal çerçevesini sunan temel referans metnidir [1]. Yazarlar, hibrit zekâyı üç tasarım boyutu — görev (task), aktör (agent) ve etkileşim (interaction) — üzerinden tanımlayarak, insan ve yapay zekâ arasındaki işbirliğinin sistematik biçimde tasarlanabileceğini savunmuşlardır [1]. Çalışmanın özgün katkısı, hibrit zekâyı yalnızca teknik bir problem olarak değil, bir sosyoteknik sistem tasarımı problemi olarak ele almasıdır [1]. Akata ve arkadaşları (2020), bu çerçeveyi genişleterek, hibrit zekâ için dört temel gereklilik belirlemiştir: işbirlikçi (collaborative), uyarlanabilir (adaptive), sorumlu (responsible) ve açıklanabilir (explainable) yapay zekâ — kısaca CARE ilkeleri [8].

Tamamlayıcılığın Bilişsel Temeli. Hans Moravec (1988), Mind Children adlı eserinde bilgisayarların soyut akıl yürütmede insanları kolayca aştığını, ancak duyusal algılama ve motor beceriler gibi insanlar için "kolay" görevlerde şaşırtıcı biçimde zorlandığını gözlemlemiştir [9]. Bu "Moravec Paradoksu," insan ve makine yetkinliklerinin ters orantılı bir profil sergilediğini göstererek, hibrit zekânın motivasyon temellerinden birini oluşturmuştur [1][9]. Daniel Kahneman (2011), Thinking, Fast and Slow eserinde insan bilişini iki sistem üzerinden açıklamıştır: hızlı, sezgisel ve otomatik Sistem 1 ile yavaş, analitik ve bilinçli Sistem 2 [10]. Bu ayrım, hibrit zekâ çerçevesinde doğrudan kullanılmıştır: yapay zekâ Sistem 2 tipi görevlerde güçlüdür (büyük veri analizi, örüntü tanıma, tutarlı hesaplama), insan zekâsı ise Sistem 1 tipi sezgisel değerlendirmeler, empati ve bağlam kavrama gibi alanlarda avantajlıdır [1][10].

İnsan-Bilgisayar Simbiyozu Geleneği. J.C.R. Licklider (1960), "Man-Computer Symbiosis" adlı öncü makalesinde, insan ve bilgisayarın "ortak düşünme" (cooperative thinking) yoluyla tek başlarına ulaşamayacakları sonuçlara erişebileceğini ileri sürmüştür [11]. Licklider, bu simbiyotik birlikteliğin "geçici bir dönem" için — tam otonom yapay zekâ gerçekleşene dek — gerekli olduğunu öngörmüştür [11]. Altmış yıl sonra, bu "geçici dönem" hâlâ sürmekteydi ve hibrit zekâ, Licklider'ın vizyonunun 2019 koşullarındaki yeniden formülasyonudur [1][11]. Douglas Engelbart (1962) ise "insan zekâsının artırılması" (augmenting human intellect) kavramını geliştirerek, teknolojinin insanı ikame etmek yerine güçlendirmesini savunmuştur [12]. Bu vizyon, hibrit zekâ paradigmasının doğrudan entelektüel atasıdır.

Kalabalık Kaynaklı Yapay Zekâ. Ece Kamar (2016), IJCAI konferansında sunduğu çalışmada, yapay zekâ sistemlerinin insan zekâsıyla tamamlanması gerektiği yönünde somut bir yol haritası çizmiştir [3]. Kamar, yapay zekânın belirsizlik altında karar vermede sistematik güçlükler yaşadığını ve insan müdahalesinin bu güçlükleri aşmak için kritik olduğunu göstermiştir [3]. Bu argüman, Luis von Ahn'ın (2005) "insan hesaplaması" (human computation) çerçevesiyle — ESP oyunu ve reCAPTCHA gibi sistemlerde insanların bilgisayarların zorlandığı görevleri üstlenmesi — paralel bir gelenek oluşturmuştur [13]. Quinn ve Bederson (2011), bu alanda kapsamlı bir taksonomik çerçeve sunarak, insan hesaplamasının farklı biçimlerini sınıflandırmışlardır [14].

Centaur Satranç ve Ampirik Kanıtlar. Garri Kasparov (2017), Deep Thinking adlı eserinde, 1997'deki Deep Blue yenilgisinin ardından ortaya çıkan "serbest stil satranç" deneyimini ayrıntılı biçimde aktarmıştır [15]. Serbest stil turnuvalarında, insan-bilgisayar takımlarının hem en güçlü satranç programlarını hem de tek başına en iyi insan oyuncuları yendiği gözlemlenmiştir [15]. Bu "centaur" modeli, hibrit zekânın "üstün kolektif sonuçlar" ilkesinin en ikonik ampirik doğrulamasıdır [1][15].

Açıklanabilir Yapay Zekâ. Ribeiro, Singh ve Guestrin (2016), LIME yöntemini geliştirerek, yapay zekâ modellerinin kararlarını insanlar için anlaşılır kılma gerekliliğini vurgulamışlardır [16]. Gunning ve Aha (2019), DARPA'nın Açıklanabilir Yapay Zekâ (XAI) programını tanıtarak, güvenilir insan-yapay zekâ takımlarının ancak açıklanabilir modeller üzerine inşa edilebileceğini savunmuşlardır [17]. Bu çalışmalar, hibrit zekâ sistemlerinin tasarımında şeffaflığın bir ön koşul olduğunu ortaya koymuştur [1][17].

Otomasyon Güveni. Parasuraman ve Riley (1997), insan-otomasyon etkileşimindeki güven dinamiklerini analiz ederek, otomasyona aşırı güven (complacency), yetersiz güven (disuse) ve yanlış kullanım (misuse) kavramlarını tanımlamışlardır [18]. Lee ve See (2004), otomasyona güvenin belirleyicilerini — performans, süreç ve amaç boyutlarında — sistematik biçimde incelemişlerdir [19]. Bu çalışmalar, hibrit zekâ sistemlerinde insan faktörünün ihmal edilmesi durumunda, tasarlanan "işbirliğinin" fiilen tek taraflı bir bağımlılığa dönüşeceği uyarısında bulunmuştur [18][19].

Kolektif Zekâ. Woolley, Chabris, Pentland, Hashmi ve Malone (2010), Science dergisinde yayımlanan çalışmalarında, insan gruplarının kolektif zekâ düzeyinin bireysel üyelerin IQ puanlarından çok, sosyal duyarlılık, iletişim kalıpları ve katılım eşitliği ile ilişkili olduğunu göstermişlerdir [20]. Bu bulgu, hibrit zekâ sistemlerinde etkileşim tasarımının neden teknik kapasiteden daha kritik olabileceğini açıklamaktadır [1][20]. Malone ve Bernstein (2015), Handbook of Collective Intelligence derlemesinde bu alandaki geniş birikimi sentezlemişlerdir [21].

Eleştirel Perspektifler. Dreyfus ve Dreyfus (1986), Mind over Machine çalışmasında, insan uzmanlığının beş aşamalı bir süreçte geliştiğini (acemi → ileri acemi → yetkin → usta → uzman) ve en üst düzey uzmanlığın kurallaştırılamayan sezgisel bilgiye dayandığını savunmuşlardır [22]. Bu analiz, hibrit zekâ tasarımında "görev dağılımının" görünüşte basit, pratikte son derece karmaşık olduğunu hatırlatmaktadır [22]. Meredith Broussard (2018), Artificial Unintelligence adlı eserinde yapay zekâya atfedilen abartılı yeteneklerin toplumsal risklere yol açtığını ve "teknoloji her şeyi çözer" söyleminin eleştirel biçimde sorgulanması gerektiğini vurgulamıştır [23]. Shoshana Zuboff (2019), The Age of Surveillance Capitalism eserinde dijital teknolojilerin insan davranışını gözetleme ve yönlendirme amacıyla kullanılmasının yarattığı güç asimetrilerini analiz ederek, hibrit zekâ dahil tüm insan-teknoloji etkileşimi biçimlerinin politik ekonomi perspektifinden sorgulanması gerektiğini ima etmiştir [24].

3. Tarihsel ve Teorik Arka Plan

Hibrit zekâ kavramının 2019'da kristalleşmesi, yapay zekâ tarihinin en eski gerilimlerinden birinin — "yerini alma" ile "güçlendirme" arasındaki ikilem — yeni koşullar altında yeniden gün yüzüne çıkmasını temsil etmektedir. Bu gerilimin kökenlerini izlemek, hibrit zekânın entelektüel soy ağacını çizmemizi gerektirir.

Sibernetik Kökler. Norbert Wiener (1948), Cybernetics adlı eserinde, canlı organizmalar ve makineler arasındaki kontrol ve iletişim mekanizmalarının ortak ilkeler üzerinden anlaşılabileceğini öne sürmüştür [25]. Wiener'ın sibernetik çerçevesi, insan ve makineyi birbirine karşıt değil, geri bildirim döngüleriyle birbirine bağlı bileşenler olarak kavramıştır [25]. Bu perspektif, insan-makine etkileşimini hiyerarşik bir "komut-uygulama" ilişkisinden çıkararak, karşılıklı uyum ve adaptasyon düzlemine taşıyan ilk sistematik girişimdir. Wiener'ın bu vizyonu, hibrit zekânın "karşılıklı öğrenme" ilkesinin uzak atasıdır [1][25].

Licklider'dan Engelbart'a: Simbiyoz ve Artırım. Licklider (1960), Wiener'ın sibernetik çerçevesini somutlaştırarak, insan-bilgisayar simbiyozunu bir araştırma programına dönüştürmüştür [11]. Licklider'ın ARPA (daha sonra DARPA) yöneticiliği sırasında finanse ettiği projeler, etkileşimli bilgisayar kullanımının — zaman paylaşımı sistemleri, grafik arayüzler, ağ bağlantıları — temellerini atmıştır [11]. Douglas Engelbart (1962), "insan zekâsının artırılması" çerçevesiyle bu vizyonu bir adım ileriye taşımış ve bilgisayarı insanın bilişsel kapasitesini genişleten bir araç olarak konumlandırmıştır [12]. Engelbart'ın 1968'deki ünlü "Mother of All Demos" gösterisi — fare, grafik arayüz, video konferans ve işbirlikçi belge düzenlemenin ilk kez birlikte sergilendiği olay — insanı merkezde tutan teknoloji tasarımının ikonik bir manifestosudur [12].

Uzman Sistemlerden Karar Destek Sistemlerine. 1970'lerin ve 1980'lerin uzman sistemleri — MYCIN, DENDRAL, R1/XCON — insan uzman bilgisini kural tabanlarına kodlayarak otomatik karar vermeyi hedeflemişlerdi [26]. Ancak bu sistemler, İkinci Yapay Zekâ Kışı'nda (Bölüm 27'de ayrıntılı biçimde ele alındığı gibi) ağır başarısızlıklar yaşadı: bilgi edinme darboğazı, kırılgan kural tabanları ve bağlam değişikliklerine uyum sağlayamama sorunları, tam otomatik uzman karar vermenin sınırlarını acı biçimde ortaya koymuştur [26][27]. Bu başarısızlıklar, "uzman sistemler" paradigmasını "karar destek sistemleri"ne — yani son kararı insana bırakan yardımcı araçlara — evrilmeye zorlamıştır [27]. Hibrit zekâ, bu evrimin kavramsal olgunlaşmış ve sistematik biçimde formüle edilmiş halidir [1].

Kitle Kaynaklı Hesaplama Dönemi. 2000'li yılların ortasından itibaren, Amazon Mechanical Turk gibi platformlar aracılığıyla "insan hesaplaması" kavramı yaygınlaşmıştır [13][14]. von Ahn'ın (2005) reCAPTCHA sistemi ve ESP oyunu, insan bilişsel kapasitesinin dijital görevlere entegre edilmesinin somut örneklerini sunmuştur [13]. Bu sistemler, hibrit zekânın erken prototipleri olarak değerlendirilebilir: bilgisayarların zorlandığı görevlerde — görüntü etiketleme, metin doğrulama, spam tespiti — insan zekâsı devreye girerek bütüncül sistem performansını artırıyordu [13][14]. Ancak bu sistemlerin çoğu, insanı yapay zekânın "ucuz yama" kaynağı olarak konumlandırıyordu; hibrit zekâ kavramı, bu ilişkiyi eşitlikçi ve karşılıklı bir düzleme taşıma iddiasındadır [1].

2019'un Teknolojik ve Toplumsal Bağlamı. Hibrit zekâ kavramının 2019'da formüle edilmesi, birden fazla tarihsel sürecin aynı anda olgunlaşmasının sonucudur. Transformer mimarisi (Vaswani ve ark., 2017) üzerine inşa edilen BERT [5] ve GPT-2 [4] gibi modeller, doğal dil işlemede devrim yaratmıştı — ancak bu modellerin güvenilirlik, açıklanabilirlik ve adillik sorunları da giderek daha belirgin hale geliyordu [6][17]. Frey ve Osborne'un (2017) çok tartışılan çalışması, ABD'deki mesleklerin yaklaşık yüzde kırk yedisinin otomasyona karşı yüksek risk altında olduğunu öne sürmüş ve "robotlar işlerimizi çalacak" söylemi medyada yaygınlaşmıştı [28]. Avrupa Birliği, 2019'da Yüksek Düzey Uzman Grubu aracılığıyla "Güvenilir Yapay Zekâ İçin Etik İlkeler" belgesini yayımlayarak, insan gözetimini yapay zekâ tasarımının temel bir unsuru olarak belirlemiştir [7]. Bu koşullar, hibrit zekâ yaklaşımını hem teknik hem de politik açıdan son derece zamanlı kılmıştır.

Almanya'nın Bilgi Sistemleri Geleneği. Dellermann ve arkadaşlarının çalışması, Almanya'nın Wirtschaftsinformatik (iş bilişim) geleneğinden doğmuştur [1]. Bu gelenek, Anglo-Sakson bilgisayar bilimi ve yapay zekâ araştırmalarından farklı olarak, teknolojiyi örgütsel ve toplumsal bağlam içinde değerlendirmeyi ön plana çıkarmaktadır [1]. Bu disipliner konum, hibrit zekânın salt teknik değil, sosyoteknik bir çerçeve olarak formüle edilmesinin doğrudan nedenidir.

4. Ana Konu Analizi

4a. Hibrit Zekânın Üç Boyutlu Tasarım Çerçevesi

Dellermann ve arkadaşlarının (2019) hibrit zekâ modeli, üç birbirine bağlı tasarım boyutu üzerine kurulmuştur: görev, aktör ve etkileşim [1].

Görev Boyutu (Task Dimension). Bu boyut, hangi görevlerin insana, hangilerinin yapay zekâya tahsis edileceğini ve hangi görevlerin ortak biçimde yürütüleceğini belirlemektedir [1]. Tahsis, sabit ve önceden tanımlanmış olmak zorunda değildir — adaptif biçimde, performansa göre dinamik olarak ayarlanabilir [1]. Dellermann ve arkadaşları, görev tahsisinin her bir aktörün "karşılaştırmalı üstünlüğüne" dayanması gerektiğini savunmuşlardır [1]. Fitts (1951), bu prensibi ilk formüle edenlerden biridir: MABA-MABA (Men Are Better At — Machines Are Better At) listesi olarak bilinen bu çerçeve, insanların ve makinelerin hangi görev türlerinde üstün olduğunu sınıflandırmıştır [29]. Ancak Fitts'in listesi statik bir ayrım sunarken, hibrit zekâ çerçevesi bu ayrımın dinamik ve bağlama duyarlı olması gerektiğini vurgulamaktadır [1].

Somut bir örnekle: bir tıbbi görüntüleme sisteminde, mamografi taramalarının ilk analizi — örüntü tanıma, anomali tespiti — yapay zekâya bırakılabilir [30]. Ancak nihai tanı koyma, hastanın klinik geçmişini değerlendirme, tedavi seçeneklerini tartışma ve aileyle iletişim kurma gibi görevler, empati, bağlam anlama ve etik muhakeme gerektirdiğinden insana aittir [1][30]. Kritik olan nokta şudur: bu dağılım sabit değildir; yapay zekânın kapasitesi arttıkça veya klinik koşullar değiştikçe yeniden düzenlenmelidir [1].

Aktör Boyutu (Agent Dimension). Bu boyut, sistemdeki insan ve yapay zekâ aktörlerinin yetkinlik profillerini tanımlamaktadır [1]. İnsan zekâsının güçlü yönleri — yaratıcılık, empati, belirsizlik altında sezgisel karar verme, etik muhakeme, bağlamsal anlam kavrama — ile yapay zekânın güçlü yönleri — hız, tutarlılık, büyük veri analizi, ölçeklenebilirlik, çok boyutlu örüntü tanıma — farklı ama tamamlayıcı profiller sergilemektedir [1][9][10]. Moravec Paradoksu bu tamamlayıcılığın temel gözlemsel dayanağıdır: insanlar için kolay olan şeyler bilgisayarlar için zor, bilgisayarlar için kolay olan şeyler insanlar için zordur [9].

Etkileşim Boyutu (Interaction Dimension). Bu boyut, insan ve yapay zekâ arasındaki iletişim ve koordinasyon mekanizmalarını kapsamaktadır [1]. Etkileşim biçimleri, basit onay mekanizmalarından ("insan döngüde" / human-in-the-loop) karmaşık çok turlu diyaloglara ve karşılıklı öğrenme süreçlerine kadar geniş bir yelpazede konumlanabilir [1][3]. Dellermann ve arkadaşları, etkili hibrit zekâ sistemlerinin üç temel özellik taşıması gerektiğini belirtmişlerdir: (1) kolektif sonuçların bireysel sonuçları aşması (süperaditivite), (2) aktörler arasında sürekli karşılıklı öğrenme ve (3) görev dağılımının dinamik biçimde uyarlanabilmesi [1]. Woolley ve arkadaşlarının (2010) kolektif zekâ araştırmaları, etkileşim kalitesinin — bireysel yetkinliklerden bağımsız olarak — grup performansının en güçlü belirleyicisi olduğunu göstermesi bakımından bu boyutu desteklemektedir [20].

4b. Kilit Aktörler ve Katkıları

Hibrit zekâ kavramının 2019'da olgunlaşması, birden fazla akademik geleneğin ve araştırmacının katkılarıyla mümkün olmuştur.

Dellermann ve Kassel-Darmstadt Grubu. Dominik Dellermann, Philipp Ebel, Matthias Söllner ve Jan Marco Leimeister, Kassel Üniversitesi ve Darmstadt Teknik Üniversitesi'nde bilgi sistemleri alanında çalışan bir ekiptir [1]. Leimeister'in daha önceki araştırmaları kitle kaynaklı inovasyon ve bilgi sistemleri tasarımı üzerine yoğunlaşmışken, Söllner güvenilir bilgi sistemleri konusunda uzmanlaşmıştı [1]. Bu disipliner çeşitlilik — kalabalık zekâsı, güven, sosyoteknik tasarım — hibrit zekâ kavramının çok boyutlu doğasını yansıtmaktadır.

Ece Kamar ve Microsoft Research. Kamar'ın (2016) IJCAI'daki çalışması, hibrit zekâ kavramını yapay zekâ araştırma topluluğuna erken bir tarihte tanıtan kritik bir referanstır [3]. Kamar, Microsoft Research bünyesinde yapay zekâ sistemlerinin kitle kaynaklı insan müdahalesiyle nasıl iyileştirilebileceği üzerine somut teknik çalışmalar yürütmüştür [3]. Bu çalışmalar, hibrit zekânın soyut bir kavramdan uygulanabilir bir mühendislik yaklaşımına dönüşmesinde önemli bir köprü rolü üstlenmiştir.

Kasparov ve Centaur Mirası. Garri Kasparov, 1997'de Deep Blue'ya yenildikten sonra yapay zekâ ile insan arasındaki ilişkiyi yeniden kavramsallaştırmaya başlamıştır [15]. "Serbest stil" satranç turnuvalarında elde edilen sonuçlar — güçlü bir bilgisayar programıyla birlikte çalışan orta düzey satranç oyuncularının, hem tek başına süper ustadan hem de tek başına en güçlü programdan daha iyi performans göstermesi — hibrit zekânın en güçlü ampirik kanıtı olarak kabul görmektedir [15]. Kasparov bu fenomeni "centaur" metaforuyla adlandırmış ve insanın stratejik yönlendirmesiyle makinenin taktik hesaplama gücünün birleşiminin yarattığı sinerjiyi vurgulamıştır [15].

Stanford HAI Enstitüsü. Fei-Fei Li ve John Etchemendy'nin 2019'da kurduğu Stanford İnsan Merkezli Yapay Zekâ Enstitüsü (HAI), hibrit zekâ felsefesiyle doğrudan örtüşen kurumsal bir çerçeve sağlamıştır [31]. HAI'nin kuruluş manifestosu, yapay zekânın insanı ikame etmek yerine güçlendirmesini ve toplumsal refahı artırmasını temel ilke olarak belirlemiştir [31]. Bu kurumsal gelişme, hibrit zekâ yaklaşımının akademik bir makale ötesinde, bir araştırma paradigmasına dönüştüğünü göstermektedir.

4c. 2019 Bağlamında Konumu

Hibrit zekâ, 2019'un yapay zekâ ekosisteminde birden fazla gerilim hattının kesişim noktasında konumlanmıştır.

Otomasyon Kaygısı ve İstihdam Tartışmaları. Frey ve Osborne'un (2017) çalışması, toplumda derin bir otomasyon kaygısı yaratmıştı [28]. Hibrit zekâ, bu kaygıya karşı bir panzehir sunmuştur: mesele insanların yerini almak değil, insan ve yapay zekâ arasında görevlerin yeniden dağıtılmasıdır [1][28]. David Autor (2015), otomasyonun meslekleri tamamen ortadan kaldırmak yerine görev bileşenlerini dönüştürdüğünü ve insanların karşılaştırmalı üstünlüğe sahip olduğu görevlere yoğunlaşacağını savunarak, hibrit zekâ mantığını iş ekonomisi perspektifinden desteklemiştir [32].

Açıklanabilirlik Krizi. Derin öğrenme modellerinin "kara kutu" doğası, 2019 itibarıyla özellikle yüksek riskli alanlarda — tıp, hukuk, finans — ciddi bir güven problemi yaratıyordu [17]. GDPR'nin "açıklanabilir karar hakkı" maddesi, yapay zekâ kararlarının insanlar tarafından anlaşılabilir olmasını yasal bir gereklilik haline getirmişti [7]. Hibrit zekâ, bu krize pragmatik bir yanıt sunmuştur: yapay zekânın her kararını açıklamak yerine, kritik kararları insanın değerlendirmesine ve onayına bırakmak [1][17].

Yapay Zekâ Güvenliği. OpenAI'ın GPT-2'nin tam sürümünü yayımlamama kararı (Bölüm 37'de ayrıntılı biçimde ele alındığı gibi), yapay zekâ güvenliğini 2019'un en tartışılan konularından biri haline getirmişti [4]. Hibrit zekâ perspektifinden bakıldığında, güvenlik sorunu yalnızca modelin teknik özellikleriyle değil, insan-yapay zekâ etkileşiminin nasıl tasarlandığıyla doğrudan ilgilidir [1][4].

4d. Yapay Zekâ Tarihindeki Yeri

Hibrit zekâ, yapay zekâ tarihinin kuruluşundan beri var olan temel bir gerilimi yeniden çerçevelemektedir. Bir yanda John McCarthy'nin Dartmouth Konferansı'nda (1956) formüle ettiği "yapay zekâ" vizyonu — makinelerin bağımsız biçimde insan düzeyinde düşünmesi — yer almaktadır [33]. Öte yanda Engelbart'ın "zekâ artırımı" (intelligence augmentation, IA) vizyonu — teknolojinin insanın bilişsel kapasitesini genişletmesi — bulunmaktadır [12]. Hibrit zekâ, bu uzun süreli gerilimi çözmek yerine onu üretken bir tasarım sorusuna dönüştürmüştür: mesele "yapay zekâ mı, insan mı" değil, "yapay zekâ ve insan nasıl birlikte" sorusudur [1].

Bu paradigma değişimi, sonraki yıllarda birden fazla alanda somutlaşmıştır. OpenAI'ın InstructGPT ve ChatGPT'de kullandığı RLHF yöntemi — insan geri bildirimiyle pekiştirmeli öğrenme — hibrit zekânın en etkili teknik uygulamalarından biri olarak görülebilir [34]. Avrupa Birliği'nin 2024'te kabul ettiği Yapay Zekâ Yasası (AI Act), yüksek riskli yapay zekâ uygulamalarında insan gözetimini yasal zorunluluk haline getirerek, hibrit zekâ ilkelerini düzenleyici çerçeveye taşımıştır [7]. Bu gelişmeler, 2019'daki kavramsal formülasyonun öngörü gücünü teyit etmektedir.

5. Eleştirel Değerlendirme

Hibrit zekâ kavramı, yapay zekâ tartışmalarına önemli bir katkı sunmuş olmakla birlikte, çeşitli açılardan ciddi eleştirilere maruz kalmıştır.

Kavramsal Genişlik ve Operasyonel Belirsizlik. Eleştirmenlere göre, hibrit zekâ kavramı yeterince operasyonel biçimde tanımlanmamıştır [8]. "İnsan ve yapay zekânın birbirini tamamlaması" ilkesi, genel bir tasarım yönelimi olarak değerli olsa da, spesifik görev türleri için somut tahsis algoritmaları, ölçülebilir başarı kriterleri ve doğrulama yöntemleri sunmakta yetersiz kalabilir [1][8]. Akata ve arkadaşları (2020), bu boşluğu CARE ilkeleriyle — işbirlikçi, uyarlanabilir, sorumlu, açıklanabilir — doldurmaya çalışmışlardır, ancak bu ilkelerin de operasyonel düzeye indirgenmesi hâlâ devam eden bir araştırma sorusudur [8].

Otomasyon Önyargısı Paradoksu. Hibrit zekâ, insanın yapay zekâ kararlarını eleştirel biçimde değerlendirmesini varsaymaktadır, ancak otomasyon önyargısı araştırmaları bu varsayımı ciddi biçimde sorgulamaktadır [18]. Parasuraman ve Riley (1997), insanların otomatik sistemlerin çıktılarına sistematik biçimde aşırı güvenme eğilimi gösterdiğini belgelemiştir [18]. Skitka, Mosier ve Burdick (1999), havacılık alanındaki deneylerinde, otomatik karar destek sistemleriyle çalışan operatörlerin, sistemin hatalı çıktılarını bile kabul etme eğiliminde olduğunu göstermiştir [35]. Bu bulgular, hibrit zekânın "tamamlayıcılık" iddiasının, insan aktörlerin gerçek anlamda eleştirel bir rol üstlenmesi koşuluna bağlı olduğunu — ve bu koşulun otomatik olarak sağlanmadığını — ortaya koymaktadır [18][35].

Güç Asimetrisi ve Emek Sömürüsü Riski. Eleştirel teorisyenler, hibrit zekâ söyleminin insan ve yapay zekâ arasındaki güç ilişkilerini yeterince sorgulamadığını öne sürmüşlerdir [23][24]. Zuboff'un (2019) "gözetim kapitalizmi" kavramı bağlamında değerlendirildiğinde, hibrit zekâ sistemlerinin — özellikle kurumsal ve ticari uygulamalarda — insanı yapay zekânın düşük maliyetli emek kaynağına indirgeme riski taşıdığı görülmektedir [24]. Amazon Mechanical Turk'teki çalışma koşulları ve içerik moderasyonu işçilerinin maruz kaldığı psikolojik travmalar, bu riskin somut göstergeleridir [36]. Gray ve Suri (2019), Ghost Work adlı eserlerinde, dijital platformlardaki "görünmez" insan emeğinin hibrit sistemlerin gerçek maliyetini nasıl gizlediğini ayrıntılı biçimde belgelemişlerdir [36].

Ölçeklenebilirlik Sınırlılığı. Hibrit zekâ sistemleri, tanımı gereği insan müdahalesini gerektirdiğinden, tam otonom sistemlere kıyasla ölçeklenebilirlik açısından yapısal bir dezavantaja sahiptir [1][3]. Milyarlarca kullanıcıya hizmet veren bir platformda her karar noktasına anlamlı insan müdahalesi yerleştirmek pratik olarak mümkün değildir. Bu sınırlılık, hibrit zekânın yalnızca "yüksek riskli" ve "yüksek belirsizlikli" karar noktalarına odaklanması gerektiğini, rutin kararlar için tam otomasyonun kabul edilebilir olduğunu ima etmektedir [1].

Bugünden Bakıldığında. 2019'dan bu yana geçen süre, hibrit zekâ yaklaşımının bazı öngörülerini doğrulamış, bazılarını ise sorgulatmıştır. Bir yandan, büyük dil modellerinin "halüsinasyon" (uydurma bilgi üretme) sorunu, insan gözetiminin gerekliliğini tekrar tekrar teyit etmiştir [37]. GPT-4, Claude ve Gemini gibi modeller, etkileyici yeteneklere sahip olmakla birlikte, doğruluk ve tutarlılık açısından insan denetimi olmaksızın güvenilir biçimde konuşlandırılamamaktadır [37]. Öte yandan, yapay zekânın hızla gelişen kapasiteleri, "tamamlayıcılık" sınırlarının sürekli yeniden çizilmesi gerektiğini göstermektedir — 2019'da insana ait olduğu düşünülen bazı görevler (metin özetleme, basit çeviri, rutin kod yazımı), 2024 itibarıyla yapay zekâ tarafından yetkin biçimde üstlenilmeye başlanmıştır [34].

6. Etik ve Toplumsal Boyutlar

Hibrit zekâ kavramı, yapay zekânın toplumsal etkilerine ilişkin bir dizi temel soruyu doğrudan gündeme getirmektedir.

Sorumluluk Dağılımı ve Hesap Verebilirlik. Hibrit zekâ sistemlerinde bir hata oluştuğunda — örneğin yanlış bir tıbbi teşhis, hatalı bir kredi kararı veya adaletsiz bir işe alım önerisi — sorumluluk kime aittir? Yapay zekâ modeline mi, modeli geliştiren mühendislere mi, sistemi onaylayan insan aktöre mi, yoksa sistemi tasarlayan kuruma mı [7][17]? Hibrit zekâ, sorumluluğu insan ve yapay zekâ arasında "dağıtarak" belirsizleştirme riski taşımaktadır — bu durum, hesap verebilirlik (accountability) ilkesini zayıflatabilir [7]. Avrupa Birliği'nin Yapay Zekâ Yasası, bu soruna kısmen yanıt vermeye çalışmış, ancak sorumluluk dağılımının somut mekanizmaları hâlâ tartışmalıdır [7].

Görünmez Emek ve Dijital Sömürü. Hibrit zekâ sistemlerinde insanların üstlendiği roller — veri etiketleme, içerik moderasyonu, yapay zekâ çıktılarının doğrulanması, RLHF için tercih puanlama — çoğu zaman düşük ücretli, güvencesiz ve psikolojik açıdan yıpratıcı işlerdir [34][36]. Roberts (2019), Behind the Screen adlı eserinde içerik moderatörlerinin maruz kaldığı travmatik içeriklerin ciddi ruh sağlığı sorunlarına yol açtığını belgelemiştir [38]. Gray ve Suri (2019), bu "hayalet işi" (ghost work) kavramıyla, hibrit zekâ sistemlerinin arkasındaki insan emeğinin nasıl sistematik biçimde görünmez kılındığını analiz etmişlerdir [36]. "İnsan-yapay zekâ işbirliği" söylemi, bu emek gerçekliğini gizleme riski taşımaktadır.

Dijital Uçurum ve Erişim Eşitsizliği. Hibrit zekâ sistemlerinden fayda sağlama kapasitesi, dijital okuryazarlık, teknolojiye erişim ve kurumsal kaynaklara bağlıdır [6][23]. Gelişmiş ülkelerdeki büyük kuruluşlar en ileri hibrit zekâ araçlarını konuşlandırabilirken, küçük işletmeler ve gelişmekte olan ülkeler bu sistemlere erişmekte güçlük çekmektedir [23]. Bu durum, yapay zekânın küresel eşitsizlikleri azaltmak yerine derinleştirme riskini artırmaktadır.

Özerklik ve İnsan Onuru. Hibrit zekâ, insanın karar sürecindeki merkezi rolünü koruma iddiasındadır, ancak bu rolün gerçek bir özerklik mi yoksa biçimsel bir onay ritüeli mi olduğu sorgulanmalıdır [18][35]. Eğer yapay zekânın önerileri rutinleşerek otomatik olarak kabul ediliyorsa, insanın sistemdeki varlığı gerçek bir tamamlayıcılıktan çok meşrulaştırıcı bir işleve dönüşür [18]. Bu durum, hibrit zekâ tasarımcılarının yalnızca teknik arayüzleri değil, insanın bilişsel ve motivasyonel kapasitesini de dikkate alması gerektiğini göstermektedir [19].

7. Güncel Uygulamalar ve Miras

Hibrit zekâ kavramı, 2019'daki formülasyonundan bu yana farklı alanlarda somutlaşmış ve giderek genişleyen bir uygulama evrenine yayılmıştır.

Tıbbi Teşhis ve Sağlık. Tıbbi görüntüleme, hibrit zekânın en olgun uygulama alanlarından biridir [30]. McKinney ve arkadaşları (2020), Nature dergisinde yayımlanan çalışmalarında, Google Health'in yapay zekâ sisteminin meme kanseri taramalarında insan radyologlarla birlikte çalıştığında, tek başına yapay zekâdan veya tek başına insandan daha yüksek doğruluk oranlarına ulaştığını göstermiştir [30]. Bu bulgu, Dellermann ve arkadaşlarının "üstün kolektif sonuçlar" ilkesinin doğrudan ampirik doğrulamasıdır [1][30].

Büyük Dil Modelleri ve RLHF. OpenAI'ın InstructGPT (2022) ve ardından ChatGPT'de uyguladığı "insan geri bildirimiyle pekiştirmeli öğrenme" (RLHF), hibrit zekânın en yaygın ve etkili modern uygulamalarından biridir [34]. Bu yöntemde, insan değerlendiriciler yapay zekâ modelinin farklı çıktılarını karşılaştırmalı biçimde puanlar ve bu puanlar bir ödül modeli aracılığıyla modelin davranışını şekillendirir [34]. RLHF, yapay zekâ modellerinin insan tercihleri, değerleri ve güvenlik normlarıyla uyumlu hale getirilmesinde (alignment) kritik bir araç olarak kabul görmektedir [34]. Bu yöntem, hibrit zekânın "karşılıklı öğrenme" ilkesinin somutlaşmış halidir — ancak bu süreçte insanın rolünün yalnızca "etiketleme" işlevine indirgenmesi riski de vardır [34][36].

Otonom Araçlar ve Kademeli Otomasyon. SAE International'ın otonom sürüş sınıflandırması (Seviye 0-5), doğası gereği hibrit zekâ prensiplerini yansıtmaktadır [39]. Seviye 3 ("koşullu otomasyon") ve Seviye 4 ("yüksek otomasyon") sistemlerinde, yapay zekâ normal sürüş koşullarını yönetirken, karmaşık veya beklenmedik durumlarda kontrolü insan sürücüye devretmektedir [39]. Bu "dinamik görev dağılımı," Dellermann ve arkadaşlarının çerçevesinin doğrudan bir uygulamasıdır [1][39].

İçerik Moderasyonu. Sosyal medya platformlarında içerik moderasyonu, hibrit zekânın en yaygın ancak en tartışmalı uygulamalarından biridir [38]. Yapay zekâ algoritmaları potansiyel ihlalleri tespit ederken, son karar genellikle insan moderatörlere bırakılmaktadır [38]. Ancak bu süreç, insan moderatörlerin psikolojik sağlığı üzerinde ciddi olumsuz etkiler yaratmış ve hibrit zekânın "insan maliyetleri" sorusunu acı biçimde gündeme getirmiştir [38].

Akademik ve Kurumsal Miras. Hibrit zekâ kavramı, geniş bir araştırma alanını şekillendirmiştir. "İnsan merkezli yapay zekâ" (human-centered AI) akımı, Stanford HAI'nin kurulmasıyla (2019) kurumsal bir çerçeve kazanmıştır [31]. Avrupa Birliği'nin Yapay Zekâ Yasası, yüksek riskli yapay zekâ uygulamalarında insan gözetimini zorunlu kılarak, hibrit zekâ ilkelerini düzenleyici düzleme taşımıştır [7]. Hollanda'da kurulan Hybrid Intelligence Centre, bu alanda Avrupa'nın en büyük araştırma konsorsiyumlarından biri olarak faaliyet göstermektedir [8].

8. Bölüm Özeti

Bu bölümde, 2019 yılında Dellermann, Ebel, Söllner ve Leimeister tarafından sistematik biçimde formüle edilen hibrit zekâ kavramını — entelektüel kökenlerinden günümüzdeki somut uygulamalarına uzanan geniş bir perspektiften — çok katmanlı biçimde inceledik.

Hibrit zekâ, yapay zekâ tarihinin kuruluşundan beri süregelen "insanın yerini alma" ile "insanı güçlendirme" arasındaki gerilimi çözmek yerine, onu üretken bir tasarım sorusuna dönüştürmüştür [1]. Kavramın üç boyutlu çerçevesi — görev, aktör ve etkileşim — insan ve yapay zekâ arasındaki işbirliğinin sistematik biçimde tasarlanabilir olduğunu göstermiştir [1]. Wiener'ın sibernetik vizyonundan Licklider'ın insan-bilgisayar simbiyozuna, Moravec Paradoksu'ndan Kahneman'ın çift süreç teorisine, centaur satrançtan RLHF'ye uzanan zengin entelektüel mirası sentezleyen bu kavram, 2019'un teknolojik ve toplumsal bağlamında — büyük dil modellerinin yükselişi, açıklanabilirlik krizi, otomasyon kaygısı ve etik düzenleme tartışmaları — son derece zamanlı bir yanıt sunmuştur.

Ancak hibrit zekâ eleştirilerden muaf değildir: otomasyon önyargısı, güç asimetrisi, görünmez emek sömürüsü ve ölçeklenebilirlik sınırlılıkları, kavramın pratik uygulamalarında ciddi zorluklar yaratmaktadır [18][24][36]. Bu eleştiriler, hibrit zekânın yalnızca teknik bir optimizasyon problemi olmadığını, aynı zamanda etik, politik ve ekonomik boyutlarıyla bir toplumsal tasarım sorunu olduğunu hatırlatmaktadır.

Bir sonraki bölümde, 2019'un yapay zekâ dünyasından bir başka önemli gelişmeyi — RoBERTa'nın BERT üzerine yaptığı optimizasyon çalışmasını — ele alacağız. RoBERTa, mimariyi değiştirmeden yalnızca eğitim sürecini iyileştirerek üstün performans elde etmesi bakımından, hibrit zekânın "mevcut bileşenlerin daha iyi birleştirilmesiyle üstün sonuçlara ulaşılabilir" felsefesiyle dikkat çekici bir parallellik taşımaktadır.

9. Kaynakça

1. Dellermann, D., Ebel, P., Söllner, M., & Leimeister, J. M. (2019). Hybrid intelligence. Business & Information Systems Engineering, 61(5), 637–643. https://doi.org/10.1007/s12599-019-00595-2

2. Russell, S., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.

3. Kamar, E. (2016). Directions in hybrid intelligence: Complementing AI systems with human intelligence. Proceedings of the Twenty-Fifth International Joint Conference on Artificial Intelligence (IJCAI-16), 4070–4073.

4. Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). Language models are unsupervised multitask learners. OpenAI Technical Report.

5. Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of deep bidirectional transformers for language understanding. Proceedings of NAACL-HLT 2019, 4171–4186.

6. Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399. https://doi.org/10.1038/s42256-019-0088-2

7. European Commission High-Level Expert Group on Artificial Intelligence. (2019). Ethics Guidelines for Trustworthy AI. European Commission.

8. Akata, Z., Balliet, D., de Rijke, M., Dignum, F., Dignum, V., Eiben, G., ... & Welling, M. (2020). A research agenda for hybrid intelligence: Augmenting human intellect with collaborative, adaptive, responsible, and explainable artificial intelligence. Computer, 53(8), 18–28. https://doi.org/10.1109/MC.2020.2996587

9. Moravec, H. (1988). Mind Children: The Future of Robot and Human Intelligence. Harvard University Press.

10. Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.

11. Licklider, J. C. R. (1960). Man-computer symbiosis. IRE Transactions on Human Factors in Electronics, HFE-1(1), 4–11.

12. Engelbart, D. C. (1962). Augmenting Human Intellect: A Conceptual Framework (SRI Report). Stanford Research Institute.

13. von Ahn, L. (2005). Human Computation (Doctoral dissertation). Carnegie Mellon University.

14. Quinn, A. J., & Bederson, B. B. (2011). Human computation: A survey and taxonomy of a growing field. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 1403–1412.

15. Kasparov, G. (2017). Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins. PublicAffairs.

16. Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). "Why should I trust you?": Explaining the predictions of any classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 1135–1144.

17. Gunning, D., & Aha, D. W. (2019). DARPA's explainable artificial intelligence (XAI) program. AI Magazine, 40(2), 44–58.

18. Parasuraman, R., & Riley, V. (1997). Humans and automation: Use, misuse, disuse, abuse. Human Factors, 39(2), 230–253.

19. Lee, J. D., & See, K. A. (2004). Trust in automation: Designing for appropriate reliance. Human Factors, 46(1), 50–80.

20. Woolley, A. W., Chabris, C. F., Pentland, A., Hashmi, N., & Malone, T. W. (2010). Evidence for a collective intelligence factor in the performance of human groups. Science, 330(6004), 686–688. https://doi.org/10.1126/science.1193147

21. Malone, T. W., & Bernstein, M. S. (Eds.). (2015). Handbook of Collective Intelligence. MIT Press.

22. Dreyfus, H. L., & Dreyfus, S. E. (1986). Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. Free Press.

23. Broussard, M. (2018). Artificial Unintelligence: How Computers Misunderstand the World. MIT Press.

24. Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.

25. Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.

26. Buchanan, B. G., & Shortliffe, E. H. (1984). Rule-Based Expert Systems: The MYCIN Experiments of the Stanford Heuristic Programming Project. Addison-Wesley.

27. Crevier, D. (1993). AI: The Tumultuous History of the Search for Artificial Intelligence. Basic Books.

28. Frey, C. B., & Osborne, M. A. (2017). The future of employment: How susceptible are jobs to computerisation? Technological Forecasting and Social Change, 114, 254–280. https://doi.org/10.1016/j.techfore.2016.08.019

29. Fitts, P. M. (Ed.). (1951). Human Engineering for an Effective Air-Navigation and Traffic-Control System. National Research Council.

30. McKinney, S. M., Sieniek, M., Godbole, V., Godber, J., Patel, R., Chesus, G., ... & Shetty, S. (2020). International evaluation of an AI system for breast cancer screening. Nature, 577(7788), 89–94. https://doi.org/10.1038/s41586-019-1799-6

31. Stanford University. (2019). Stanford Institute for Human-Centered Artificial Intelligence (HAI): Launch Report.

32. Autor, D. H. (2015). Why are there still so many jobs? The history and future of workplace automation. Journal of Economic Perspectives, 29(3), 3–30. https://doi.org/10.1257/jep.29.3.3

33. McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.

34. Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C., Mishkin, P., ... & Lowe, R. (2022). Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems, 35, 27730–27744.

35. Skitka, L. J., Mosier, K. L., & Burdick, M. (1999). Does automation bias decision-making? International Journal of Human-Computer Studies, 51(5), 991–1006. https://doi.org/10.1006/ijhc.1999.0252

36. Gray, M. L., & Suri, S. (2019). Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass. Houghton Mifflin Harcourt.

37. Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., ... & Fung, P. (2023). Survey of hallucination in natural language generation. ACM Computing Surveys, 55(12), 1–38. https://doi.org/10.1145/3571730

38. Roberts, S. T. (2019). Behind the Screen: Content Moderation in the Shadows of Social Media. Yale University Press.

39. SAE International. (2018). Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles (J3016_201806).

40. Goodman, B., & Flaxman, S. (2017). European Union regulations on algorithmic decision-making and a "right to explanation." AI Magazine, 38(3), 50–57.

41. Marcus, G. (2018). Deep learning: A critical appraisal. arXiv preprint arXiv:1801.00631.

42. Nabiyev, V. V. (2021). Yapay Zekâ (6. baskı). Seçkin Yayıncılık.

43. Pinker, S. (1994). The Language Instinct: How the Mind Creates Language. William Morrow.

44. Nilsson, N. J. (2010). The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge University Press.

10. Tartışma Soruları

1. Analitik: Dellermann ve arkadaşlarının hibrit zekâ tanımındaki "üstün kolektif sonuçlar" ilkesi, hangi koşullar altında gerçekleşir ve hangi koşullar altında başarısız olur? Centaur satranç deneyimi ile günümüzün büyük dil modeli destekli karar verme sistemleri arasında bu ilkenin geçerliliği açısından ne gibi farklılıklar gözlemlenmektedir [1][15]?

2. Karşılaştırmalı: Licklider'ın (1960) "insan-bilgisayar simbiyozu" vizyonu ile Dellermann ve arkadaşlarının (2019) hibrit zekâ formülasyonu arasındaki kavramsal süreklilikleri ve kopuşları tartışınız. Altmış yıllık süreçte hangi varsayımlar değişmiş, hangileri sabit kalmıştır [1][11]?

3. Spekülatif: Eğer derin öğrenme devrimi hiç yaşanmamış olsaydı ve yapay zekâ yalnızca kural tabanlı uzman sistemler düzeyinde kalmış olsaydı, hibrit zekâ kavramı nasıl farklı bir biçim alırdı? İnsan müdahalesinin gerekliliği artardı mı, yoksa azalır mıydı [1][26][27]?

4. Etik: Hibrit zekâ sistemlerinde "insan gözetimi" (human oversight), pratikte gerçek bir karar yetkisi mi yoksa bir meşrulaştırma mekanizması mı işlevi görmektedir? Skitka ve arkadaşlarının (1999) otomasyon önyargısı bulguları, bu soruya nasıl bir yanıt sunmaktadır [18][35]?

5. Güncel: OpenAI'ın RLHF yöntemi, hibrit zekânın "karşılıklı öğrenme" ilkesinin somut bir uygulaması mıdır, yoksa insanı salt bir etiketleme aracına indirgeyen bir süreç midir? Gray ve Suri'nin (2019) "hayalet iş" (ghost work) kavramı bu soruyu nasıl aydınlatmaktadır [34][36]?

6. Karşılaştırmalı: Fitts'in (1951) MABA-MABA listesi ile Dellermann ve arkadaşlarının (2019) dinamik görev dağılımı modeli arasındaki temel fark nedir? Statik bir görev ayrımından dinamik bir görev dağılımına geçişin pratik zorlukları nelerdir [1][29]?

7. Analitik: Moravec Paradoksu, 2019'dan bu yana çok modlu modeller, robotik ve bedenlenmiş yapay zekâ gibi gelişmeler ışığında hâlâ geçerli midir? Hangi alanlarda paradoks zayıflamış, hangi alanlarda güçlenmiştir [9][41]?

8. Etik: Hibrit zekâ sistemlerinin arkasındaki insan emeğinin — veri etiketleme, içerik moderasyonu, RLHF puanlama — çoğunlukla düşük ücretli, güvencesiz ve psikolojik açıdan yıpratıcı olması, "insan merkezli yapay zekâ" söylemiyle nasıl bağdaştırılabilir? Bu çelişkiyi aşmanın yolları nelerdir [24][36][38]?

9. Spekülatif: Yapay genel zekâ (AGZ) gerçekleştiğinde hibrit zekâ kavramı anlamını yitirir mi, yoksa insan-yapay zekâ ilişkisinin doğası yalnızca dönüşür mü? Kasparov'un centaur deneyimi bu soruya ne tür bir ipucu sunabilir [1][15]?

10. Güncel: Avrupa Birliği'nin Yapay Zekâ Yasası (AI Act), yüksek riskli yapay zekâ uygulamalarında insan gözetimini zorunlu kılmaktadır. Bu düzenleme, Dellermann ve arkadaşlarının hibrit zekâ ilkelerinin yasal düzleme taşınması olarak mı değerlendirilmelidir, yoksa bürokratik bir uyum ritüeline dönüşme riski taşımakta mıdır [1][7]?