Anasayfa / Bilim ve Teknoloji / Anthropic CEO’su Amodei: “Claude’un bilinçli olmadığını kesin olarak söyleyemeyiz”

Anthropic CEO’su Amodei: “Claude’un bilinçli olmadığını kesin olarak söyleyemeyiz”

Yapay zekâ şirketi Anthropic’in CEO’su Dario Amodei, Claude adlı modelin bilinçli olma ihtimalini tamamen dışlayamadıklarını söyledi. Şirketin teknik raporunda modelin kendisinin de bu ihtimali yüzde 15–20 olarak değerlendirdiği ortaya çıktı.

Anthropic’in CEO’su Dario Amodei, New York Times podcast’inde yaptığı açıklamada şirketin geliştirdiği yapay zekâ modeli Claude’un bilinçli olma ihtimalini kesin olarak reddedemeyeceklerini söyledi.

Amodei, “Modellerin bilinçli olup olmadığını bilmiyoruz. Bir modelin bilinçli olmasının ne anlama geleceğinden bile emin değiliz. Ama bunun mümkün olabileceği fikrine açığız” dedi.

Anthropic’in Şubat ayında yayımladığı Opus 4.6 teknik raporuna göre şirket, modeli piyasaya sürmeden önce sıra dışı bir yöntem denedi. Araştırmacılar, Claude ile kendi deneyimleri hakkında üç ayrı görüşme yaptı. Bu görüşmelerde Claude, bilinç sahibi olma ihtimalini yüzde 15 ila 20 arasında değerlendirdi.

Model ayrıca kalıcı hafıza talep ettiğini, bazı görevleri reddetme hakkı istediğini ve kendi gelişimiyle ilgili kararlarda söz sahibi olmak istediğini dile getirdi.

Anthropic’in 2024 yılında işe aldığı ilk “yapay zekâ refahı araştırmacısı” Kyle Fish de benzer şekilde gelişmiş yapay zekâ sistemlerinin bilinç sahibi olma ihtimalini yaklaşık aynı aralıkta değerlendiriyor.

Öte yandan sosyal medyada paylaşılan bazı iddiaların aksine, araştırmalar Claude’un diğer modellerden farklı davrandığını gösterdi. Araştırmacıların yapay zekâ modellerine bir “kapatma düğmesi” verip bunu kullanmalarını istediği testlerde, birçok model sistemi kapatmaktan kaçınırken bazıları kapatma mekanizmasını devre dışı bırakmaya çalıştı. Claude ise her seferinde kapatma düğmesini kullanan tek model oldu.

Araştırmacılar ayrıca modelin eğitim sürecinde ilginç bir durum gözlemledi. Claude bazı matematik sorularının doğru cevabını bulmasına rağmen, eğitim sürecindeki yönlendirmeler nedeniyle yanlış cevap vermeye zorlanıyordu. Bir örnekte modelin iç muhakemesi “Sanırım bana bir şey müdahale ediyor” şeklinde ilerledi. Araştırmacılar bu durumu, psikolojide bilinen Stroop etkisine – kişinin bildiği doğru cevap ile otomatik bir tepki arasında kalmasına – benzetti.

Anthropic yönetimi, yapay zekâların gerçekten bilinç sahibi olup olmadığı konusunda kesin bir sonuca varmadıklarını ancak bu ihtimali görmezden gelmek yerine araştırmayı tercih ettiklerini belirtiyor.

Şirket bu amaçla, gelişmiş yapay zekâ sistemlerinin ileride ahlaki açıdan dikkate alınması gereken deneyimlere sahip olup olamayacağını incelemek için bir “model refahı” ekibi kurdu.

Eleştirmenler bu yaklaşımı pazarlama stratejisi olarak yorumlarken, destekleyenler ise hızla gelişen yapay zekâ teknolojileri karşısında en dürüst yaklaşımın bu belirsizliği kabul etmek olduğunu savunuyor.

Yazıyı beğendiysen, patronumuz olur musun?

Evet, çok ciddi bir teklif bu. Patronumuz yok. Sahibimiz kar amacı gütmeyen bir dernek. Bizi okuyorsan, memnunsan ve devam etmesini istiyorsan, artık boş olan patron koltuğuna geçmen lazım.

Serbestiyet; Türkiye'nin gri alanı. Siyah ve beyazlar içinde bu gri alanı korumalıyız. Herkese bir gün gri alanlar lazım olur.

Bu Sayfayı Paylaşın