LONDRA (SANA) – Massachusetts Teknoloji Enstitüsü (MIT) araştırmacıları, yapay zeka sistemlerinin karar alma süreçlerini şeffaflaştırarak, karmaşık modellerin “kara kutu” olarak adlandırılan kapalı yapısını çözen yeni bir yöntem geliştirdi.
Araştırmacılar, gelişmiş makine öğrenimi modellerinin çalışma prensiplerini anlamaya yardımcı olacak yeni yöntemler geliştirmek için çalışmalarını sürdürüyor. Birçok gelişmiş modelin sunduğu hassas sonuçların hangi temellere dayandığının bilinmemesi nedeniyle ortaya çıkan “kara kutu” sorununu ortadan kaldırmayı hedefleyen çalışma, yapay zekanın şeffaflığını artırmayı amaçlıyor.
The Guardian’ın haberine göre, Massachusetts Teknoloji Enstitüsü’nde (MIT) görevli bir araştırma ekibi, yapay zeka sistemlerinin kararlarını daha net bir şekilde açıklamasını sağlayacak teknikler üzerinde çalışıyor. Bu tekniklerin, özellikle tıp, ulaşım ve bilimsel araştırma gibi kritik alanlarda kullanımı artan yapay zeka sistemlerine duyulan güveni güçlendirmesi bekleniyor.
Karar alma süreçlerinde yeni yaklaşım: “Kavramsal darboğaz”
Söz konusu yeni yaklaşım, “kavramsal darboğaz” (conceptual bottleneck) olarak bilinen bir modele dayanıyor. Bu yöntemde sistem, verilerden doğrudan sonuca gitmek yerine, önce insanlar tarafından anlaşılabilecek bir dizi kavram veya özelliği tanımlıyor. Sistem, tahminlerini ve kararlarını bu tanımlanmış kavramlar üzerinden oluşturuyor.
Bu yöntem sayesinde sistemin ürettiği sonuçlar, insanlar tarafından yorumlanabilen net faktörlere bağlanabiliyor. Böylece kullanıcılar ve araştırmacılar, yapay zekanın kararlarının altında yatan nedenleri daha hassas bir şekilde anlama imkanı buluyor.
Algoritmalarda şeffaflık ve güvenilirlik artacak
Araştırmacılar, bu yaklaşımın algoritmaların işleyişindeki belirsizliği azaltarak daha şeffaf ve güvenilir yapay zeka sistemlerinin geliştirilmesine katkı sağlayacağını savunuyor. Yeni modelin aynı zamanda, sistemlerdeki hataların veya potansiyel yanlılıkların (bias) daha kolay fark edilmesine olanak tanıması öngörülüyor.