Mesleklerin Sonu, İnsanüstü Muhakeme ve Q*

13 Mart 2024

Bu yazıda güncel yapay zeka modellerinin kabiliyetleri, çeşitli sektörlerdeki etkileri ve önümüzdeki aylarda duyurulması beklenen dil işleme modellerinin muhakeme kabiliyeti hakkında fikirlerimi paylaşacağım.

Bu içeriğin dünya genelinde “knowledge worker” şeklinde anılan Türkçe deyimiyle “beyaz yaka” çalışanları daha fazla ilgilendirdiğini düşünüyorum. Çünkü önümüzdeki birkaç sene içerisinde birçok beyaz yaka mesleğin hızla yok olacağını, işten çıkarmalardan kaynaklanan işsizliğin dünya genelinde tartışılacağını ve uzun vadede ise yapay zekanın bu mesleklerin tamamına hakim olacağını öngörüyorum.

Öncelikle yapay zekanın olası etkileri konusunda geleneksel medyada yazılan haber ve analizleri inceleyelim.

Ocak ayında Davos’ta gerçekleşen Dünya Ekonomik Forumu’nda yapay zekanın ekonomi ve iş marketine olan etkileri de konuşuldu. CNN haberine göre IMF yapay zekanın dünyadaki mesleklerin %40’ını ortadan kaldırabileceğini öngörüyor. Bu oranın gelişmiş ülkelerde ise %60’lara çıkabileceği ve gelir eşitsizliğini daha da artıracağı belirtiliyor. Gelişmiş ülkelerdeki oranın daha yüksek olma nedeni daha fazla beyaz yaka çalışanın olması ve beyaz yaka işlerin daha fazla etkilenmesi olarak aktarılmış.

İsviçre merkezli dünyanın en büyük özel bankası UBS’in Şubat ayında yayımladığı raporda şu cümleye yer veriliyor: “Halihazırda kodlamanın büyük bir bölümü atıl varlık gibi gözüküyor ve diğer STEM yetenekleri bunu izleyebilir”. Burada kullanılan STEM kısaltması bilim, teknoloji, mühendislik ve matematik alanları anlamına geliyor. Özetlemek gerekirse raporda mühendislik ve teknoloji gibi alanlardaki yeteneklerin beklenenden hızlı şekilde değerini kaybedeceği vurgulanmış.

Bunlar finans dünyasında tanınmış bazı kuruluşların yorumlarıydı. Peki teknoloji dünyasının önde gelenleri buna katılıyor mu?

NVIDIA’yı duymuşsunuzdur. Ekran kartlarıyla da tanınan, çıkardığı yapay zeka çipleriyle deyim yerindeyse tekel haline gelmiş bir Amerikan şirketi. Geçtiğimiz aylarda yaşadığı büyüme ile dünyanın en büyük üçüncü şirketi unvanını alan NVIDIA, yakın zamanda 2.1 trilyon dolarlık piyasa değerine erişti. Şirketin CEO’su Jensen Huang’ın kodlamanın geleceği hakkında ilginç düşünceleri var. Huang şunu diyor: “Bizim işimiz, kimsenin programlama yapmak zorunda kalmayacağı ve programlama dilinin insani olduğu bir bilgisayar teknolojisi yaratmak. Dünyadaki herkes artık bir programcı.”

Dikkat çekici bir düşünce olduğuna inanıyorum ve katılıyorum. Bana göre programlama işinin ya da faaliyetinin kendi başına bir değeri yoktur. Programlamayı değerli kılan şey arkasındaki temel beceri olan problem çözme becerisidir. Yazmış olduğunuz kod çözümünüzü temsil eder. Yani Huang’ın arzusu bu metni Python ya da Java gibi bir programlama dili yerine insan dili haline getirmek ve böylece bilgisayara söz geçirmeyi herkes için erişilebilir kılmak. Peki temel beceri olarak adlandırdığım problem çözme becerisini yapay zeka da öğrenemez mi? Bu sorunun cevabını yazının ilerleyen bölümlerinde arayacağız.

Bunu sağlayabilecek teknolojiler geliştiren OpenAI, 2022 yılının Kasım ayında ChatGPT’yi yayınlayarak programlamanın geleceği konusundaki tartışmaları başlatmıştı. Şirketin CEO’su Sam Altman yapay zekadaki gelişimin insanlığın geleceği için önemli olduğu ancak hayatlarımızda sanıldığı kadar büyük değişimlere sebep olmayacağı görüşünü katıldığı birçok programda dile getirdi. Bununla uyumlu şekilde, geçtiğimiz aylarda bazı mesleklerin kaybolacağını ama yeni mesleklerin de ortaya çıkacağını düşündüğünü paylaşmıştı.

Bence Altman bu konuda yeterince dürüst değil. Bana kalırsa bu söylemin tercih edilmesi bilinçli bir stratejinin parçasıdır. Yeni işlerin ortaya çıkacağına katılıyorum ama kaybolan işlerin yarattığı boşluğu dolduracağını düşünmüyorum.

2024 yılının başından itibaren teknoloji dünyasındaki basına yansıyan işten çıkarmalar neredeyse 50 bin kişiyi etkiledi. Meta ve Google gibi büyük firmaların işten çıkardığı toplam çalışan sayısı net bilinmemekle birlikte, belirli dönemlerdeki işten çıkarma dalgalarıyla ilgili net bilgilere ulaşabiliyoruz.

Evet, birçok işten çıkarma var ancak bunların hepsi yalnızca yapay zeka kaynaklı mı? Ekonomik zorluklar, faiz oranlarının yükselmesi ve yatırımcıların çekingen davranması gibi sebeplerle ilgili olamaz mı? Olabilir ve elbette bunların da payı olmuştur. Ancak basına sızan birçok haberde yapay zekanın altının çizildiğini görüyoruz. Örneğin Silikon Vadisi’ndeki sızıntıları derleyen ve epey yüksek fiyatlı abonelikler ile aktaran The Information, Aralık ayında şunları yazmıştı: “Google’ın yapay zekayı iş süreçlerine entegre etmeye yönelik yeni bir stratejisi var ve bu stratejinin parçası olarak 30.000 çalışanı etkileyecek bir işten çıkarmayı değerlendiriyor”. Haberde, Google’ın verimlilik için yapay zekanın faydalarını araştırdığı ve şirketteki yeniden yapılandırmanın önce reklam satış departmanını etkileyeceği aktarılmıştı. Bu haberin ardından Google’da 12 bin kişilik bir işten çıkarma gerçekleşti. Son üç aya baktığımızda ise Google’ın reklam satış departmanının ardından donanım, mühendislik ve Youtube departmanlarında da işten çıkarmalara gittiğini görüyoruz.

Bana kalırsa bu biraz endişe verici gözüküyor. Ne kadar endişelenmeliyiz ve kimler endişelenmeli gibi soruların cevaplarını aramadan önce, dil işleme modellerinin güncel durumunu inceleyelim.

ChatGPT yayınlanmadan önce dil işleme modelleri endüstride çok daha az kullanım alanına sahip olan “metin sınıflandırma”, “duygu tespiti” ya da “varlık ismi tanıma” gibi daha basit görevler için kullanılıyordu. Bu tür modeller halihazırda şu gibi senaryolarda kullanılabiliyordu: ürünlere gelen kullanıcı şikayetlerini tespit edip sınıflandırmak ya da bir reklam kampanyasının ne kadar başarılı olduğunu tespit etmek için sosyal medya gönderilerinde duygu analizi yapmak. Evet, bu iki senaryo için de ChatGPT gibi gelişmiş generative modeller çıkmadan önce çeşitli çözümler üretilebiliyordu. ChatGPT’nin yayınlanması dil işleme modellerinin çok daha fazlasını yapabileceğini gösterdi ve dili içeren tüm iş süreçlerine katkı sağlayabileceğini anlamaya başladık.

ChatGPT, büyük dil işleme modellerinin aynı anda özetleme, içerik üretme, çeviri, veri analizi ve programlama gibi birçok farklı görevi yapabildiğini gösterdi. Bunun yanı sıra büyük dil işleme modellerinin belirli seviyede muhakeme/mantıklı düşünme yeteneğine sahip olduğu ve ölçeklendikçe bu yeteneğin artabildiği anlaşılmış oldu. Bu durum GPT-3.5 modelinin ardından yayınlanan GPT-4 ve Claude-3 Opus gibi modellerde gözlemlenebiliyor.

Geçtiğimiz hafta Claude-3 Opus modelini yayınlayan Anthropic, modelin çeşitli testlerdeki aldığı sonuçları da paylaştı. Tabloyu incelediğimizde, modelin doktora seviyesi sorular içeren GPQA testinin yarısını doğru yanıtlayabildiğini görüyoruz. Bu test biyoloji, fizik ve kimya alanında uzmanlar tarafından yazılmış 448 çoktan seçmeli sorudan oluşan oluşuyor. Testi ilgili alanlarda doktora yapmış veya yapmakta olan uzmanlar çözdüğünde ortalama %65 doğruluk oranına ulaşılıyor.

Soru ve cevapların eğitim veri setine karışmış olma ihtimali nedeniyle bu tür testler her zaman kesin sonuçlar vermiyor ancak model performansını kabaca özetliyor diyebiliriz.

Peki bu modelleri özel kılan tek şey bu mudur? İnsanüstü hızda yazı yazabilen, alanında bilgili bir üniversite öğrencisinden farkı nedir? Bu noktada iki önemli özelliği açıklamak gerekir. “Context-window” ve “multimodality”. Yeni nesil dil işleme modelleri İngilizce’de ”context window” denilen geniş bağlam pencerelerine sahip. Ses, video ve görsel gibi farklı veri türlerinini aynı anda destekleyebiliyorlar. Bağlam penceresi, modelin ne kadar veriyi hatırlayarak işlem yapabildiğini ifade ediyor. Örnek vermek gerekirse, Google’ın geçtiğimiz ay yayınladığı Gemini-1.5 modeli 1 milyon tokenlık bir bağlam penceresine sahip. Yani onlarca kitap yükleyip içindeki herhangi bir cümleyi sorgulayabiliyorsunuz. Ya da uzun bir video yükleyip herhangi bir saniyesinde ekranda beliren metni yazmasını isteyebiliyorsunuz. Az önceki soruyu cevaplamak gerekirse, ortalama bir üniversite öğrencisi onlarca kitabı saniyeler içerisinde okuyamazken, yeni nesil dil işleme modelleri dinlemek istemediğiniz 1 saatlik bir podcasti özetleyip, yüz binlerce kod satırını okuyabiliyor.

Hollanda’da çalışan bir arkadaşım bana şirketinin GitHub Copilot lisansına sahip olduğunu ve kod yazarken sıkça kullandıklarını anlatmıştı. Öğrenci lisansıyla Copilotı deneyimlemiş biri olarak söyleyebilirim ki takıldığım yerlerde Google’da aratmak yerine Copilot’a kodu tamamlatmak büyük bir zaman tasarrufu sağlıyordu. Google demişken, Google da Copilot’ın olumlu etkilerini görmüş olacak ki geçtiğimiz ay kendi çalışanlarının kullanması için Goose isimli bir modeli yayınladı. Anlaşılan önümüzdeki dönemde kod asistanlarına doğru bir yönelme göreceğiz.

Kod asistanlarının yanı sıra otonom şekilde yazılım mühendisliği görevlerini tamamlamaya çalışan yeni nesil araçları da görmeye başladık. Cognition’ın geliştirdiği Devin, “yapay zeka yazılım mühendisi” olarak tanıtılıyor. Devin’in kendi kod editörü, tarayıcısı ve terminali var. Kendisine verilen görevi tamamlamaya çalışırken plan yapıyor, kendi kodunu yazıyor, koddaki hataları düzeltiyor ve son olarak kodu test ediyor. Devin adımlarını kaydediyor ve bu sayede onu yöneten kullanıcılar Devin’in işlemlerini geri sarıp yaptığı hataları düzeltebiliyor. Yayınlanan bir demoda, Upwork isimli bir hizmet platformundan Devin’in yapması için bir görev alınıyor ve Devin işi başarıyla tamamlıyor. Ürün kapalı önizleme aşamasında olduğu için gerçekte ne kadar başarılı olduğuna dair elimizde net bilgiler yok. Sosyal medya platformlarında Devin’in ortalama bir yazılım mühendisinden çok daha yavaş çalıştığına dair paylaşımlar yapılmış.

Yine de Cognition şirketinin OpenAI’a ciddi bir rakip olacağını düşünüyorum. Çünkü The Information’ın geçtiğimiz ay aktardığına göre OpenAI da Devin’e benzer bir ürün geliştiriyor. Bu yeni ürünün, karmaşık görevleri otomatikleştirmek için müşterilerin bilgisayarlarını kontrol edebildiği belirtilmiş. Kaynağa göre bu araç, tıklamaları, imleç hareketlerini, metin yazmayı ve insanların çalışırken gerçekleştirdiği diğer eylemleri yapabilmeyi hedefliyor. Önümüzdeki günlerde bu konuda daha fazla bilginin paylaşılacağını düşünüyorum.

Özetlemek gerekirse, güncel yapay zeka teknolojisi alanında uzman bir yazılımcıyı, bir bilim adamını ya da bir analisti henüz işinden edemese de iş akışlarını hızlandıracak ve üretkenliği artıracak çözümler sağlıyor. Güncel büyük dil işleme modelleri, muhakeme ve problem çözme gibi becerilerde yeterince gelişmiş olmasa da, insan yönlendirmesiyle faydalı işler yapabiliyor.

Peki bu modellerin muhakeme yeteneği neden artmıyor? Karşılaştığımız problem nedir ve yakın zamanda çözülebilecek mi? Dil işleme modelleri nasıl düşünüyor? Bu soruların cevaplarını arayalım.

Önce düşünsel süreçleri anlama ve açıklama amacıyla geliştirilmiş bir teori olan “Dual Process Theory”, yani İkili Süreç Teorisi’nden bahsetmek istiyorum. Daniel Kahneman’ın bu teoriyi konu alan “Hızlı ve Yavaş Düşünme” kitabında insanların düşünme, karar verme ve problem çözme gibi zihinsel süreçleri iki kategoriye ayrılıyor: Otomatik süreçler ve kontrollü (bilinçli) süreçler. Bu süreçler "Sistem 1 düşünme" ve "Sistem 2 düşünme" şeklinde isimlendiriliyor.

Sistem 1 düşünme beynimizin durumlara ve uyaranlara verdiği hızlı, otomatik, bilinçsiz ve duygusal tepkilerden oluşuyor. Yolda yürürken yanından geçtiğiniz bir reklam panosunu dalgınlıkla okumak ya da ayakkabı bağcıklarınızı üzerine fazla düşünmeden bağlayabilmek Sistem 1 düşünmeye örnek olarak verilebilir.

Sistem 2 düşünme ise daha karmaşık problemleri çözerken beynimizin çalıştığı yavaş, çaba gerektiren mantıklı hali diyebiliriz. Örneğin bir satranç hamlesini düşünürken, haritada alternatif bir rota ararken veya satın almayı düşündüğünüz bir ürünün fiyatına deyip değmediğini hesaplarken Sistem 2 düşünme kullanılır.

Yakın zamanda OpenAI’dan ayrılan yapay zeka araştırmacısı Andrej Karpathy, Kasım ayında yayınlamış olduğu bir videoda büyük dil işleme modellerinin Sistem 1 düşünme yapabildiğini, sonraki hedefin Sistem 2 düşünmeyi gerçekleştirebilen modeller olduğunu belirtiyor. Karpathy günümüzdeki modellerin metin üretme şeklini yolda giderken rayları döşeyen bir trene benzetiyor. Sistem 2 düşünmeyi sağlamak için modelin cevap üretmeden önce bir süre düşünmesi gerektiğini söylüyor ve Go oyununu oynamayı öğrenen AlphaGo/AlphaZero modelini örnek veriyor.

DeepMind’ın geliştirdiği AlphaGo, önce iyi oyuncuları taklit ederek oynamayı öğreniyor ve Go’yu iyi oynamayı başarıyor. Ancak bu yöntem modelin profesyonel oyuncuları yenebilecek kadar gelişmesi için yeterli olmuyor. DeepMind modelin kendi kendine Go oynayabileceği bir sandbox ortamı hazırlayarak ona milyonlarca oyun oynatıyor. Bu oyunlarda modelin kazandığı durumları teşvik olarak kullanıp performansını geliştirmek amaçlanıyor. Oyunlar oynandığı esnada tahtadaki durumun kazanmaya ne kadar yakın olduğunu tahmin eden ikinci bir model daha eğitiliyor. Tüm bunların sonunda, Deepmind’ın AlphaZero’su dünyanın en iyi Go oyuncusu Lee Sedol’ü yenerek insanüstü seviyeye çıkmayı başarıyor. Çalışma şeklini özetlemek gerekirse, AlphaZero potansiyel hamleleri değerlendirirken, bu hamlelerin yol açacağı tahta durumlarını kazanma ihtimallerine göre eleyerek inceliyor ve nihai bir sonuca varıyor. Böylece bir arama algoritmasıyla tüm ihtimalleri kontrol etmek yerine, gerçek oyunculara benzer şekilde sezgisel tahminlerde bulunuyor ve daha verimli çalışıyor. Tüm bunları yaparken, kendi kendine oynadığı sırada eğitilen az önce bahsettiğim iki farklı modelden faydalanıyor.

Andrej Karpathy, büyük dil işleme modellerinin insanı taklit ederek insanüstü seviyeye çıkamayacağını ve AlphaZero benzeri bir atılıma ihtiyaç duyulduğunu vurguluyor. Bu konudaki en büyük problemin dil modellerinin temel alabileceği doğru bir teşvik mekanizmasını kurgulamanın zorluğu olduğunu belirtiyor. AlphaZero kendisine karşı oynadığı maçlarda kazandığı durumlara göre eğitilirken, dil işleme modelleri neye odaklanmalı? Dil alanında kazanmanın karşılığı nedir? Karpathy, daha sınırlı alanlarda kendi kendini eğitebilen dil işleme modelleri kurgulamanın mümkün olduğunu söylüyor. Kendisi bu konuda bir örnek vermiyor ancak ben kısaca kendi yorumumu belirtebilirim. Girdiğimiz bir matematik teorisini adım adım ispat etmeye çalışan bir model kendi kendini eğitebilir diye düşünüyorum. Çünkü modelin bir ispata erişip erişmediği elimizdeki araçlarla otomatik olarak test edilebilir ve adımların doğruluğu da hesaplanabilir. Yani sağlam bir teşvik mekanizması kurulabilir. Halihazırda OpenAI’ın bununla ilgili yapmış olduğu bir araştırma var ancak güncel durumunu bilemiyoruz. Böyle bir model gerçek olursa ve insanüstü seviyeye kadar gelişebilirse bilim dünyasında çok ciddi gelişmelere sebep olabilir diye düşünüyorum. Böyle bir teknoloji ile matematik ve fizik gibi birçok temel bilimdeki açık problemler çözülebilir ve yeni teorik keşifler yapılabilir.

Ben OpenAI’ın Sistem 2 düşünme yeteneğini kazandıracak önemli teknikler geliştirdiğini, hatta bu tekniklerden birinin basına sızmış olduğunu düşünüyorum. Geçtiğimiz Kasım ayında Sam Altman’ın yönetim kurulu tarafından şirketten atılıp yeniden CEO olarak getirildiği dönemi belki hatırlıyorsunuzdur. Olaylar sırasında yayınlanan bir Reuters haberinde bu olayların çıkmasına sebep olan şeyin Q* (Q-star) adındaki önemli bir buluş olduğu aktarılmıştı. Habere göre şirketteki bazı kişiler Q*’ın yapay genel zekayı (AGI) bulmaya yarayacak önemli bir atılım olduğuna inanıyor. Bu bilgileri Reuters’a aktaran ve isminin açıklanmasını istemeyen kişi, yeterli işlem gücü sağlandığında yeni modelin belirli matematik problemlerini çözebildiğini belirtiyor. Modelin henüz ilkokul öğrencileri düzeyinde matematik performansı göstermesine rağmen gelecekteki başarısı konusunda çok iyimser olduğunu anlatıyor.

Benim tahminime göre bu iyimserlik, literatürde Chinchilla Scaling Law olarak bilinen, belirli parametreler verildiğinde model performansını öngörebilmeyi sağlayan bir denklemden kaynaklanıyor. Muhtemelen Q* yöntemiyle eğittikleri modelin daha fazla veriyle daha büyük ölçekte eğitildiğinde başarılı sonuçlar verebileceğini tespit ettiler. Belki de bu gelişme Altman’ın o dönem yaptığı ilginç yorumları açıklıyordur.

Yaklaşık bir ay sonra Reuters haberi sorulduğunda Sam Altman’ın, “unfortunate leak” yani “talihsiz sızıntı” ifadesini kullanması oldukça dikkat çekici. Bu ifadenin Q* haberini doğruladığına inanıyorum. Yönteme Q* isminin verilmesinin de ilginç olduğunu düşünüyorum. OpenAI’ın geliştirdiği yeni tekniğe Q* ismini koyması, Q-learning ve A* arama algoritmasının birleşimine işaret ediyor olabilir.

Q* hakkında birçok şeyi bilmesek de yaklaştığımızı gösteren ipuçlarından biri, OpenAI çalışanı Noam Brown’ın birkaç gün önce paylaştığı şu Tweet. Brown AlphaGo’nun Lee Sedol’ü yenmesinin yıl dönümünü kutluyor. Tweette, bugün bile kimsenin ham bir nöral ağ kullanarak Go’da insanüstü performans sergileyemediğini ve AlphaGo’nun bunu başarırken hamle başına 1 dakika arama yaptığını belirtiyor. Peki bu Tweeti ilginç kılan şey nedir? Noam Brown’ın OpenAI şirketinde “muhakeme” üzerine araştırma yapıyor olması.

Meta AI’ı yöneten Turing ödüllü bilim adamı Yann Lecun, geçtiğimiz hafta katıldığı Lex Fridman programında muhakeme konusuna değiniyor ve yapay zekanın bu konuda gelişimini sağlayacak sonraki adımla ilgili fikirlerini paylaşıyor. Dil işleme modellerinin cevap vermeden önce bir süre düşünüp daha anlamlı bir çıktı vermelerini sağlamak gerektiğini belirtiyor. Bunu sağlayabilmek için ikinci bir modele ihtiyaç olduğunu aktarıyor. Kısaca kendisi şunu öneriyor: “Eğer üretilen bir cevabın sorulan soruya ne kadar uygun bir cevap olduğunu tahmin edebilen ikinci bir modele sahip olursak, bunu kullanarak nihai çıktı üretilmeden önce cevabın iyileştirilebilmesi sağlanabilir”. Yani bir girdi ve çıktıyı alıp aralarındaki uyumu puanlayan bir model hayal edin. Yann Lecun, dil işleme modeli cevap vermeden önce bu ikinci model ve bir arama algoritmasından faydalanılarak cevabın rafine edilebileceğini düşünüyor.

Yann Lecun’un bahsettiği bu modeli geliştirebilmek kulağa zor gelse de, birçok kötü cevabı görmezden gelmeyi sağlayabilecek kusurlu bir model bile büyük performans artışlarına sebep olabilir diye düşünüyorum. Bana göre prensip olarak kötü bir cevabı iyi bir cevaptan ayırt etmek kolay bir görevdir.

Örneğin, kendi iletişim yeteneklerinizi yetersiz görseniz bile başarısız bir konuşmacıyı ayırt edebilirsiniz. Bir jeolog ya da maden mühendisi olmasanız da jelibon madeninden bahseden birinin saçmaladığını bilirsiniz.

Özetle, üretilecek çıktının sürekli iyileştirilebilmesine yardımcı olabilecek ikinci bir model muhakeme yeteneğindeki büyük bir artışa sebep olabilir ve dil işleme modellerinin insanüstü muhakeme yeteneğine ulaşmasını sağlayabilecek sonraki atılım olabilir. Ben OpenAI’ın geliştirdiği Q*'ın buna benzer bir yöntem olduğunu düşünüyorum.

Önümüzdeki günlerde Sam Altman’ın Lex Fridman programına katılması bekleniyor. Bence Altman birkaç aydır yürütmekte olduğu iletişim stratejisini devam ettirip elindeki modellerin kabiliyetlerini olduğundan daha yetersiz ve ilkel göstermeye gayret edecek. Ayrıca rakiplerine bir karşı hamle olarak çeşitli model güncellemelerinden bahsedeceğini ve belki Q* hakkında çeşitli bilgiler paylaşabileceğini de düşünüyorum. Önümüzdeki günler ve haftalarda bunları göreceğiz.

Peki OpenAI gibi şirketler ellerindeki teknolojilerin etkileri konusunda neden dürüst değil? Bence bu durum, devletlerin yapay zekanın nasıl regüle edilmesi gerektiğini bilmemesinden kaynaklanıyor. Bu nedenle yeni kabiliyetlerin büyük bir heyecanla paylaşılması istenmiyor. Halkın yeni teknolojilerden endişelenmesi yönetimlere bu konuda bir baskı oluşturabilir ve şirketleri yavaşlatacak regülasyonlar gelmesine sebep olabilir.

Toplumlar işlerinin yok olacağını öğrenmeye hazır değiller. İnsanlar işlerini kaybetmek istemiyor ancak işlerini kaybedecekleri an gelene kadar sistemi ayakta tutmaları gerekiyor. Bu nedenle yapay zekanın kabiliyetlerinin yetersiz gösterilmesi OpenAI gibi şirketlere fayda sağlıyor.

Peki ne yapmalıyız? Ne öğrenmeliyiz? Bu sorunun cevabını ben de bilmiyorum.

Yapay zeka araçlarının etkin olabileceği fikirler bulup onların peşinden koşmak kulağa güzel geliyor. Ya da yapay zeka konusunda teorik bilgi edinip yeni modeller üzerinde çalışmak da uygun bir kariyer hedefi olabilir. Belki de South Park’ın son filmi Panderverse'teki gibi tesisatçı olmalıyız.

Dünya çok hızlı değişiyor ve uyum sağlamak giderek zorlaşıyor. Gelişmeler gösteriyor ki yapay zeka bize ayak uydurmayacak. Umarım biz ona ayak uydurabiliriz.