Çağımızın Yeni Kaygı Krizi: Üretken AI-nksiyete
Yazı Boyutu:
Üretken yapay zekâ etrafında çalan alarm zilleri, modelin sadece veri bilimciler değil herkes tarafından kullanılabilir olması nedeniyle, kafa karışıklığına ve tedirginliğe yol açmaya başladı. Modern zamanın yeni derin endişesine hoş geldiniz!
Bir süredir tüm sektörlerdeki liderlerin üzerlerinde yönetim kurulu ve CEO baskısını hissettikleri ortak bir payda var: Üretken yapay zekâ çözümünün uygulanabileceği doğru yerleri bulmak. Baskı altında hissetmeleri son derece doğal; bu hem yeni bir fırsat olması nedeniyle heyecan verici hem de rekabete oldukça açık bir alan. Tüm bu inovasyon çabasının orta yerinde ise haklı bir endişe duruyor: Üretken yapay zekâya duyulan endişe ya da AI-nksiyete, ai-nxiety. Odanın ortasında oturan bu fil için bazı önlemler alınıyor elbette. Örneğin, Samsung çalışanlarının platforma hassas şirket verilerinin yüklenmesinin ardından ChatGPT kullanımını yasakladı; ancak durum sanılandan daha sancılı olabilir zira bu verilerin daha sonra sızdırıldığı ortaya çıktı. İçeriğini öğrenirken edindiği bilgilere dayalı oluşturma modeli nedeniyle üretken yapay zekâ, davalarla da karşı kaşıya: Getty Images, StableDiffusion’u dava etti; Microsoft, GitHub ve OpenAI ise toplu davalarla mücadele ediyor.
“Yapay zekânın babalarından” sayılan Geoffrey Hinton ve Yoshua Bengio’dan OpenAI CEO’su Sam Altman’a kadar bu teknolojiden sorumlu kişilerde ve şirketlerde de alarm zilleri çalıyor. Onların görüşüne göre insanlar yakın gelecekte yok olma ya da en azından robot efendilerinin egemenliği altına girme tehlikesi ile karşı karşıya kalabilir. İşler bu noktaya gelmeden önce karşılaşılabilecek başka sorunlar da var; ABD başkanlık seçimleri arifesinde yüksek kaliteli yanlış bilgilendirme kampanyaları yaratmanın kolaylığı veya yapay zekânın insanın yerini alması ile ortaya çıkacak işsizlik ve ekonomik felaket gibi.
Danışmanlık şirketi BCG’nin genel müdürü ve kıdemli ortağı Tad Roselund, “Üretken yapay zekânın ortaya çıkardığı risklerin çoğu, diğerlerinden daha gelişmiş ve daha endişe verici” diyor. Üretken yapay zekânın sadece veri bilimcilerin değil herkesin kullanımına açık olması, alarm zillerinden doğacak kakofoniyi daha endişe verici kılıyor. Çünkü o ses tek bir yerden çıkmıyor; ziller herkesin elinde.
Üretken Yapay Zekânın Hangi Risklerinden Endişe Duymalıyız?
Öncelikle şu soruyu sormakla başlayalım: Üretken yapay zekâ, üretken olmayan yapay zekâ ile hangi etik, itibarsal, düzenleyici ve yasal riskleri paylaşıyor?
İlkini cevaplamak için önce üretken olmayan yapay zekâyı tartışalım. Üretken olmayan yapay zekâ, kolayca önyargılı veya ayrımcı çıkarımlarda bulunabiliyor. Bu çıkarımları, kara kutu sorunu olarak da adlandırılan, açıklanamayan yollarla yaratabiliyor. Başkalarının gizliliğini ihlal eden veriler üzerinden eğitilebiliyor veya bu verileri oluşturabiliyor. Yine de, yaratıcı olmayan yapay zekânın birçok etik riski, kullanımı ile ilişkili; çünkü bir kuruluşun karşılaştığı etik risk türleri, üretken olmayan yapay zekânın kullandığı içeriklere bağlı.
Üretken yapay zekâ, tüm bu etik riskleri üretken olmayan yapay zekâ ile paylaşıyor. Bunun için hem görüntü hem de metin oluşturucuların çıkarımlarındaki önyargılara bakılabilir. Üretken yapay zekânın çıkarımlarının geldiği hal, veri bilimcileri kara kutu sorununun içine hapsediyor. Ve bu modeller internetten toplanan -hem bireyler hakkındaki hem de kişilerin veya kuruluşların fikri mülkiyetinde olan- verilerle eğitiliyor.
Tıpkı üretken olmayan yapay zekâda olduğu gibi, üretken yapay zekânın da etik riskleri kullanım şekline özgü. Ancak burada bir farklılık devreye giriyor: Üretken yapay zekâ, genel kullanım amaçlı bir yapay zekâ. Bu da her sektörde sayısız kullanıma açılabilmesi anlamına geliyor. Bu da, kurumların yalnızca veri bilimcileri ve mühendisleri tarafından tasarlanan yapay zekânın kullanım durumuna özgü etik riskleri değerlendirirken on binlerce çalışanlarının bu yapay zekâyı kullanabilecekleri sayısız bağlamı da ele almaları gerektiği anlamına geliyor. Ezcümle, karşı karşıya olunan risk havuzu büyüyor.
Bu da bizi ikinci soruya getiriyor: Üretken olmayan yapay zekâya kıyasla üretken yapay zekâya özgü veya bu yapay zekâ tarafından daha da kötüleştirilen etik, itibarsal, düzenleyici ve yasal riskler neler?
Üretken Yapay Zekânın Etik Riskleri
Başa çıkılması gereken sektörler arası en az dört risk var: Halüsinasyon sorunu, müzakere sorunu, niteliksiz satış elemanı sorunu ve paylaşılan sorumluluk sorunu. Bu riskleri ayrıntılı olarak anlamak, bunların nasıl ele alınacağının planlanmasında da yol gösterici olabilir.
Halüsinasyon Sorunu
Bu sorunu açmadan önce birkaç tanım parantezi açmamız gerekiyor.
Birincisi, doğal dil işleme (DDİ; natural language processing, NLP). DDİ, bilgisayarların ve insanların insan dilini kullanarak etkileşime girme yollarına odaklanan bir yapay zekâ biçimi. DDİ teknikleri, bilgisayarların doğal iletişim biçimlerimiz olan konuşmayı ve yazılı metinleri analiz etmesine, anlamasına ve bize yanıt vermesine yardımcı oluyor.
Diğeri, büyük dil modeli (BDM; large language model, LLM). BDM, çeşitli doğal dil işleme görevlerini yerine getirebilen derin öğrenme algoritmasına deniyor. Büyük dil modelleri dönüştürücü modeller kullanıyor ve büyük veri kümeleri kullanılarak eğitiliyor. Dolayısıyla büyükler. Bu sayede metin veya diğer içerikleri tanıyabiliyor, çevirebiliyor, tahmin edebiliyor veya oluşturabiliyorlar.
Soruna geri dönecek olursak…
OpenAI’nin ChatGPT’si, Microsoft’un Bing’i ve Google’ın Bard’ı gibi BDM’lerle ilgili en önemli risklerden biri, yanlış bilgi üretmeleri. Bu risklerin büyüklükleri örnekleriyle ölçeklendirilebilir. Zira bir doktor hastalarına teşhis koymak için BDM’yi kullanabilir veya BDM finansal tavsiye veya ilişki tavsiyesi istemek adına herhangi bir insan tarafından kullanılabilir.
Halüsinasyon sorununda vurgulanması gereken birkaç önemli yön var: İlki, bir BDM’nin iddialarının doğruluğunun kontrol edilmesinin otomatikleştirilememesi. Yani iddiaları gerçekliğe karşı kontrol eden bir program veya yazılım yok. Bir iddianın doğruluğunu veya yanlışlığını manuel olarak kontrol etmek gerekiyor.
İkincisi, insanların yazılım programlarının çıkarımlarına güvenme eğiliminde olması. Bu eğilim öyle köklü ki bir ismi dahi var: otomasyon önyargısı. Dolayısıyla yapılması gereken manuel doğrulama, otomasyon önyargısının dengeleyici gücüne karşı gerçekleştirilmesi zaruri bir eylem. Sorun, BDM’lerin sıklıkla sergilediği otoriter tonun giderek kötüleşmesinde yatıyor. BDM’ler çok sık yanılmakla kalmıyor aynı zamanda çok sık ve kendinden emin bir şekilde yanılıyor.
Üçüncüsü, insanların tembel olması ve hızlı cevaplar istemesi. İnsanların ilk etapta BDM’lere başvurmaları ve fakat çıkarımların manuel olarak kontrol edilme hızının yavaş gerçekleşmesi.
Dördüncüsü, bunun herkesin erişebileceği bir araç olması.
Ve son olarak, birçok insanın BDM’lerin yanlış iddialarını güvenle benimsediklerinin farkında olmamaları. Bunun da onları, bu araçlara karşı aşırı savunmasız hale getirmesi.
Bu sorun salt insanlara BDM’lerin yanlış bilgi verebileceğini söyleyerek ve onların otomatik olarak buna güvenmeyi bırakacaklarını bekleyerek çözülemez. Otomasyon önyargısı, tembellik ve hız ihtiyacı göz önünde bulundurulduğunda, “Bu çıkarım muhtemelen iyidir” mantığına sık rastlanacak. Bu tip tehditlerle mücadele etmek için durum tespiti süreçlerine, bu süreçlere uyulmasına ve kullanımın izlenmesine ihtiyaç duyulacak. Tıpkı bir başkasının tamamen insani olan eksikliklerini düzeltmek için başka insanları hayatına dahil etmesi gibi.
Müzakere Sorunu
BDM’ler düşünce gücüne sahip gibi görünürler ve düşünme gibi görünen tutarlı akıl yürütmeler sunarlar ancak gerçekte olan zayıf bir taklit üretmeleridir ki tehlikeli olan budur. Bir finans danışmanının ne tavsiye edeceğinden emin olmadığı durumlarda BDM’ye başvurduğunu varsayalım. BDM, tavsiyesinin ardındaki sözde gerçeklerle birlikte belirli bir yatırım stratejisi önerebilir. Burada yanıltıcı olan nokta, bir BDM, çıkarımının ardında bir açıklama yapıyor gibi görünse de bu aslında sadece hangi kelimelerin bir araya geleceğini tahmin etme sürecine dayanan ve makul gibi görünen bir nedendir.
Burada biraz durup derine inelim…
BDM’lerin ustalığı, kendisinden önce gelen kelimelerle maksimum düzeyde tutarlı bir sonraki kelime kümesini bulmasında yatıyor; çünkü çıkarımlarının kullanıcı için anlamlı olması gerekiyor. GPT-4 gibi yeni BDM’lerin şaşırtıcı yanı ne dediklerini bilmeden anlamlı olabilmeleri. Bir BDM çıkarımlarını anlamaz. Kelimelerin anlamlarını kavramaz. Sadece son derece başarılı ‘bir sonraki kelime tahmin edici’dirler.
Bir BDM’den neden x’i önerdiğine dair bir açıklama istediğinizde size neden x’i önerdiğine dair bir açıklama yapmaz. O ana kadar gerçekleşen konuşmayla uyumlu olduğunu ‘düşündüğü’ sonraki kelimeleri tahmin eder. X’i neden tavsiye ettiğini ifade etmez; çünkü nedenler için çıkarım sağlamaz. Müzakere etmez veya karar vermez. Sadece sonraki olasılığı tahmin eder. Dolayısıyla size x’i tavsiye etmesinin nedenlerini veremez; çünkü çıkarımları olasılığa dayanır. Bunun yerine, çıkarımlarının ardındaki nedenler gibi görünen nedenleri sıralar. Bu ise iki soruna neden olur:
Birincisi, bu şekilde kandırılmak kolaydır. Bir kullanıcının otomasyon önyargısının, tembelliğinin ve hız ihtiyacının üstesinden geldiğini ve BDM’nin verdiği yanıtın gerekçesini araştırmaya başladığını varsayalım. Kullanıcının ilk etapta BDM’ye danışma nedeni, karmaşık bir durumda cevaptan emin olamaması olabilir. BDM sabırla ve otoriter bir tonla kullanıcıya tavsiyesinin gerekçesini açıklar. Artık kullanıcının görünüşte otoriter, müzakereci BDM’ye güvenmesi oldukça kolaylaşır. Bu da önyargıların, tembelliklerin ve hız ihtiyaçlarının üstesinden gelme çabalarından önceki noktaya dönülmesine neden olur.
İkincisi, müzakere insan hayatı için önem taşır. Tek önemli olanın performans olduğu bazı senaryolar olsa da, insanlar için önemli olan başka senaryolar da olabilir. Bir hakimin kararını vermeden önce müzakere etmesi gibi. Bu kararı vermek için bilgisayara başvurursanız, etik tartışmaları da beraberinde getirirsiniz. Benzer şekilde, iyi bir finansal tavsiye almak istersek bizim için en iyisinin ne olduğunu aktif olarak düşünen birisine başvurmak isteriz. İlişkilerde -ve yüksek riskli durumlarda- insani bir unsur vardır ve insan olarak bu unsura tutunuruz. Dolayısıyla bu insani unsuru korumak adına müzakereye başvururuz; sahte müzakereci yazılımlara değil.
İlk sorunda olduğu gibi müzakere sorununun çözümü durum tespit süreçlerinde, izlemede ve insan müdahalesinde yatar.
Niteliksiz Satış Elemanı Sorunu
Herhangi birine bir şey satmanın yolu, konuşmaktan geçiyor. Bazı durumlarda satış görevlilerinin dürüst ve güvenilir tavırlarına tanıklık ederiz. Kimi zamansa duygusal düğmelerimize basarak aslında istemediğimiz bir şeyi satın aldıran satıcılarla karşılaşırız. Öyle ki, talep ettiğiniz iptal veya iade işleminden vazgeçmeniz için manipüle dahi edilirsiniz. Bu yönteme, karanlık model denir. Finansal teşvikler ve belirli rakamlara ulaşma baskısının bilindik karışımı ile motive olan bir kişinin insanları manipüle etmekte çok iyi olan bir BDM satış sohbet robotu geliştirdiğini varsayalım. Bu robotun insanların duygusal düğmelerine nasıl basılacağına ve insanlarla nasıl müzakere edildiğine dair tüm kitapları ‘okumuş’ ve öğrendikleriyle orantılı bir şekilde tüketicilerle konuşması için programlandığını düşünün. İşte işletmenizin güvenilirliğini zedeleyecek harika bir reçete! Tüketiciler, tüketiciye yönelik BDM sohbet robotu tarafından sistematik olarak kandırıldığında bu güveni geri kazanmak için robotu geliştirmekten daha fazla yatırım yapmanız gerekeceğini unutmayın. Sistemin etik açıdan ne denli hasarlı olduğuna değinmemize gerek bile yok.
Paylaşılan Sorumluluk Sorunu
Çoğunlukla ‘temel modeller’ olarak da adlandırılan üretken yapay zekâ modelleri, bir avuç şirket tarafından oluşturuluyor. Eğer siz kuruluşunuzun üretken yapay zekâsını bu şirketlerden birinden temin ediyorsanız bu modele bir ince ayar çekeceksinizdir. Kurumunuzda yer alan veri bilimciler ve mühendisler bunun için varlar. Ancak bu ince ayarlanmış üretken yapay zekâyı kullanırken etik açıdan bir terslikle karşılaşmanız halinde ortaya şu soru çıkıyor: Bu terslikten kim sorumlu olacak?
Cevap, karmaşık. Birincil olarak, temeli oluşturan bu modeller genellikle kara kutulardır yani çıkarımlarını açıklanamayan yollarla yaparlar. İkinci olarak, temel modelleri oluşturan birçok şirket, yapay zekânın özellikle tasarım, oluşturma ve doğrulama döngüleri boyunca aldığı kararlar konusunda şeffaf değildir. Yapay zekayı eğitmek için hangi verilerin kullanıldığını paylaşıma açmayabilir. Dolayısıyla şu soruyla karşı karşıya kalabilirsiniz: Temel modeli oluşturan tedarikçi modele ince ayar yaparken ve modeli uygularken yeterli etik, itibarsal, düzenleyici ve yasal durum tespiti yapılması için yeterli bilgi temin edebilecek mi?
Farklı şekilde anlatmak gerekirse… Kuruluşunuzun üretken bir yapay zekâ modeli kullandığını ve işlerin etik açıdan ters gittiğini varsayalım. Kuruluşunuz temel model tedarikçisinden sorunu tespit edebilecek testler yapabilecek bilgiye sahipse ve fakat bu testleri yapmadıysa sorumluluk kuruluşunuza aittir. Öte yandan, kuruluşunuz durum tespitini etkin bir şekilde yapamayacak denli yeterli bilgiye sahip değilse, bu durumda sorumluluk hem tedarikçiye hem size aittir. Tedarikçiye aittir; çünkü ihtiyacınız olan bilgileri size sağlamamıştır. Size aittir; çünkü ya ekibiniz yeterli bilgiye sahip olmadığının farkında değildir ya da farkındadır ve devam etmeye karar vermiştir.
Bu bize, üretken bir yapay zekâ modelini tedarik ederken ve ardından ince ayar yaparken fizibilite analizinin ne denli önemli olduğunu gösteriyor. Bu analizin ekibinizin durum tespiti yapmak için neye ihtiyaç duyduğunu değerlendirip değerlendiremeyeceğini, bu bilgileri tedarikçiden alıp alamayacağını ve ‘uygulama için yeterince güvenli’ kriterlerin neler olduğunu içermesi gerekiyor.
Riski Yönetmek
Bu sorunlar ışığında söylenebilir ki, bazı şirketlerin üretken yapay zekâyı yasaklamak için harekete geçmeleri akıllıca değil. Bunun yerine üretken yapay zekânın kullanımına ilişkin eğitimin yapay zekâ kullanımına ilişkin eğitime oranla daha öncelikli olması gerekiyor.
Buna ek, üretken yapay zekânın etik riskleri, bir yapay zekâ risk programının tasarlanmasına ve uygulanmasına yönelik mevcut yaklaşımlara meydan okuyacak kadar yeni değil. Yukarda bahsettiğimiz dört sorun, bu tür risklere daha fazla odaklanılması ihtiyacını vurguluyor; ancak bunları ele almak için çok temel stratejiler de mevcut.
Üretken yapay zekâ tarafından oluşturulan içeriğin şirketin etik beklentilerini karşıladığından ve marka değerini desteklediğinden emin olmak için üretken yapay zekanın insanların veya süreçlerin yerini almak için değil, onları güçlendirmek için kullanılması öneriliyor.
Şirketlerin modellerden elde edilen çıkarımları, yasal emsaller fikri mülkiyet ve telif hakkı sorunlarına açıklık getirene kadar, doğrulamaya çalışması gerekiyor.
BDM’leri oluşturan ve ince ayar yapan şirketlerin -isim ve adresten telefon numarasına, pasaport bilgilerinden sosyal güvenlik numaralarına- kişisel olarak tanımlanabilir bilgilerin dil modellerine gömülmediğinden ve gizlilik yasalarına uygun olarak kullanıldığından emin olması büyük önem taşıyor.
Şirketlerin hassas bilgilerin, korunan verilerin ve fikri mülkiyet haklarının korunmasına yönelik ortak sorumluluğu vurgulayarak yukarıdan aşağıya doğru net yönergelen, yönetişim ve etkili iletişim kurmaları tavsiye ediliyor.
Yapay zekâ üzerine çalışan şirketlerin veri ve modellerdeki bilinçsiz önyargıları tespit etmeye yardımcı olacak farklı liderlere ve konu uzmanlarına sahip olması önem arz ediyor.
Makine öğrenme modelleri ve üretken yapay zekâ, nedensellik değil korelasyon arıyor. İşte bu noktada biz insanların modelin yorumlanabilirliği yani modelin verdiği cevabı neden verdiği konusunda ısrarcı olmamız ve bir cevabın makul bir açıklama olup olmadığını, sonucu olduğu gibi almak yerine gerçekten anlamamız gerekiyor. Bu düzeyde bir güvenirlilik sağlanana kadar, yaşamları ve ekonomik koşulları önemli ölçüde etkileyebilecek cevaplar vermek için üretken yapay zekâ sistemlerine güvenilmemesi gerekiyor.
{168720}