Yapay zekanın içinde ne olduğunu kimse bilmiyor

Kavramlardan biri daha kararlı Mevcut Yapay Zekanın beynimizin fiziksel ağlarını taklit eden yapay sinir ağları ile eğitime bağımlılığı, “siyah kutu”. Geçtiğimiz yıl bu teknolojiye öncülük etmek için yoğun bir yarışa katılan büyük şirketlerin henüz çözemediği bir sorun. Temel olarak “kara kutu”dan bahsettiğimizde Bir muammadan bahsediyoruz: Bir yapay zekanın eğitimi sırasında “girdi”yi biliyoruz; ve “çıktı” Sistemin, gelen verilerin ve ortaya çıkan sonuçların bu sürecin nasıl gerçekleştiğini bilmiyoruz ne de yapay zekanın ulaştığı sonuçlara nasıl ulaştığı. “Kara kutu” olduğunu düşünen başka uzmanlar da var Bu bir efsanedir çünkü sorun sistemin şeffaf olmaması değil, iç işleyişini yorumlayacak araçların yeterince gelişmemiş olmasıdır. Her durumda, Google’ın CEO’sunun kendisi, Sundar Pichaiprestijli televizyon programı “60 dakika”ya verdiği röportajda şunları söylüyor; orada “tam olarak anlamadığınız” bir şeyler oluyor, anahtarlar henüz anlaşılamamış olsa gerek.

Yapay Zekanın iç sürecine ilişkin bu anahtarları bilmek konu değil kesinlikle küçük. Yapay zekanın ulaştığı yere ulaşmak için izlediği yol hakkında mutlak şeffaflık olmadan, büyük güven krizi. Üstelik yapay zekanın cevap vermesi gereken konular da bu kadar hassassa ilaçO Sağ ya da çevre, endişe tetiklenir. Başka bir deyişle: Yapay zekanın mevcut davranışı, bir şekilde, güvendiğimiz İnsanlığın geçmiş zamanlarını anımsatıyor. şaman ve sonuçları cesaret verici olsa da elbette anlamadığımız büyüsü. bilim ve akıl çağı bizimki gibi.

Aslında biraz düşünürsek, Bunun gerçekleşmesi de alışılmadık bir durum değil.. Sinir ağları, biyolojik beyinlerin davranışlarını kopyalayan, kendi kendine öğrenme yeteneğine sahip bilgisayar sistemleri tarafından yapılan ve “makine öğrenmesi” olarak adlandırılan bir algoritmadır. Kesin olalım, çünkü doğru olan “ne kopya” demek olacaktır. Ne biliyoruz fiziksel beynin davranışı. yapay nöronlar organize etmeye çalışıyorlar katmanlara göre biyolojik olanların yaptığı gibi, bu arada, 130 yıldan fazla bir süre önce, ulusal bilimin unutulmuş dehası Santiago Ramón y Cajal tarafından keşfedilen bir süreçte. Katman sayısı bu kadardır ve süreç o kadar karmaşıktır ki, kesinlikle muazzam enerji harcamasıAtılan adımların ve sonraki karar alma süreçlerinin izini sürmek imkansız olmasa da zor olabilir. Sanki Turing’in “taklit oyunu” alaycı bir paradoksa dönüşmüş gibi: Yapay zeka, beynimizin hala bilim adamları için olduğu muammayı kopyalayarak ilerledi. Sorun şu ki, bu muammaları, “kara kutuları” da beraberinde sürüklemiş. orijinal beyinden, “gri madde” kadar anlaşılmaz yeni bir kara kutu yaratır. gerçek. saf şiir çözülemeyenlerden.

Sıradan ölümlüler alıştı işe yarayan teknolojilerle yaşayın ve bunu nasıl yaptıklarını anlamıyoruz. Ve bilgisayar bilimcileri de bu durumdan muaf değiller çünkü sadece yapay zeka için geçerli olmayan bu “kara kutu” kavramını üniversitedeki ilk yıllarında öğrenmek zorundalar: olmadan kullanmaları gereken bir modül, nesne veya bileşen olabilir. iç işleyişini bilir. Ama eğer Yapay Zekanın yüce rahipleri de bunu yüzde yüz anlamıyorsa, bir şeyler endişe verici derecede ters gitmeye başlıyor. Hele ki bu durum sadece o “kara kutuya” girmenin karmaşıklığından kaynaklanmıyorsa. Sırlarını keşfetmek için ama acele ve kazanılmış çıkarlarNe derdim? BenaventeYapay zekanın evrimini bir şeye dönüştürdüler ileri doğru çılgın uçuş sonucun sürecin analizinden daha önemli olduğu durum. Bunu anlamak imkansız olduğundan ya da bana ait olduğundan ve kimsenin gizemi çözmek için ortalığı kazmasını istemediğimden dolayı: işte yapay zekayı yaratan şirketler buna inanıyor. Telif hakkı. Bu arada Amerika Birleşik Devletleri’nde Yönetim zaten izin verdi Tıbbi kararlarda yer alan 581 yapay zeka modeliBirçoğu hala nasıl çalıştıklarını tam olarak anlamadığımız kara kutularla eğitildi.

İyi haber şu ki, teknolojik ve bilimsel gelişmelerin gerçekleşmesi uzun sürmüyor. bu durumlar için güvenlik duvarları. Zaten “yorumlanabilirlik” adı verilen konuda uzmanlaşmış yapay zeka araştırmacıları var. ve bu temelde kara kutuyu tamamen şeffaf bir kaba dönüştürmeyi amaçlıyor. Birbirine eşlik eden bir kavram, “açıklanabilirlik”, bir nevi “nasıl yapıldığı” bankaların bile size malzeme sağlamaya başladığı algoritmalar.

“Makine öğrenimi bir kara kutu olacak şekilde tasarlandı: çok karmaşık tahmine dayalı modeller”

Cynthia Rudin

Yapay zeka araştırmacısı

Kuzey Amerika Cynthia Rudin bu araştırmacılardan biridir. Dergide ilginç bir röportajda Kuantamagazin sorunun kökenine işaret ediyor: ChatGPT’nin kabul edilebilir şiirler oluşturmasını mümkün kılan makine öğrenimi tasarlandı “kara kutu” olmak” Rudin şunu söylüyor “Bunlar herhangi bir insanın anlayamayacağı kadar karmaşık tahmine dayalı modellerdir. Yoksa bunlar mülk mü? “gizli sos” birisinin. İlk fikir, verilerle uğraşmaya gerek olmadığı, bunun yerine algoritmanın tüm bunları arka planda halledeceğiydi. Konsept olarak çok şıktı ama olup biteni anlamayı zorlaştırıyordu.”. Rudin neden bahsettiğini biliyor çünkü söylendiği gibi o, keşiş olmadan önce aşçıydı. Mezun olduktan sonra şirkette çalıştı New York Elektrik Şirketi Kanalizasyonların yangınlara veya patlamalara en duyarlı olduğunu tahmin eden bir yapay zeka modeli oluşturmada “nadir” bir durum Manhattan’ın yer altı borularının en az %1’i etkilendi. Modeli geliştirirken pek çok veriyle çalıştılar ve bunları sistematik hale getirdiler. Buna rağmen modelde “nötr kablolar” hakkında bilgiler yer alıyordu bu tüm nihai sonucu değiştirdi. Elektrik şirketi, modelin içinde ne olduğunu bilerek orada olmaması gerektiğini fark etti ve sorunun çözülebileceğini anladı. Aksi halde felaket olurdu. Rudin, Quantamagazine gazetecisine şunları söylüyor: “Ne içerdiklerini bilmiyorsanız, model problemlerini çözmek gerçekten zordur.”

Alakalı haberler

Mesele şu ki, “yorumlanabilir” bir şekilde eğitim Çok daha yavaştır ve dolayısıyla çok daha pahalıdır: Nasıl “mantık yürüteceğinizden” emin olmalısınız. (tırnak işaretleri gereklidir) sonuçların doğru olduğundan emin olun. Yüksek riskli kararlarda bu zorunlu görünmektedir. Ancak yapay zeka, internette kimin spor ayakkabı reklamı alıp kimin almayacağına karar vermek için olasılıkları hesaplama konusundaki muazzam yeteneğini kullanırsa hiçbir şey olmayacak gibi görünüyor. Özellikle sistem çalışıyorsa… Kimse her şeyin bir “kara kutu” modeli tarafından kontrol edildiğinden endişelenmeyecektir.

Sorun tam olarak şudur: Bir sonucun nereden geldiğini bilmeden, neden böyle olduğunu tartışamadan kabullenmek. Ne ChatGPT, ne Bard ne de diğer herhangi bir Üretken Yapay Zeka sorgulanamayacak kahinler veya tanrılar değildir. Fredric BrownBüyük bilimkurgu yazarlarından biri olan Dr. Soru şu (başka bir şey olabilir mi?): “Tanrı var mı?” Ne cevap verdiğini hayal edin.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir