Sağlık sektöründe üretken yapay zeka araçlarının yaygınlaşması, hekimler arasında büyük endişelere yol açıyor. Bu araçların “halüsinasyon” olarak adlandırılan ve gerçekte olmayan bilgileri gerçekmiş gibi sunma eğilimi, tıbbi hatalara davetiye çıkarıyor. Son örnek, Google'ın Med-Gemini modeli oldu.

Med-Gemini'nin "Hayali" Beyin Bölgesi

Google araştırmacıları, Mayıs 2024'te yayımladıkları raporda Med-Gemini'nin beyin taramalarını analiz etme yeteneğini test ettiklerini açıkladılar. Model, analiz sonuçlarında "basilar ganglia" adlı bir beyin bölgesinden bahsetti. Ancak, tıpta böyle bir beyin bölgesi bulunmuyor. Nörolog Bryan Moore bu hatayı fark ederek The Verge'e bildirdi. Google, hatayı "basal ganglia" ile "basilar artery" terimlerinin karışmasına, yani bir "yazım hatası"na bağladı. Bu durum, yapay zekanın tıbbi teşhislerde ne kadar yanıltıcı olabileceğini göstermektedir. Hata, uzmanlar tarafından ciddi bir tehlike olarak değerlendirildi.

Yüksek Riskli Bir Alan

Uzmanlar, bu tür hataların günlük internet aramalarında bilgi kirliliğine yol açabileceğini belirtiyor. Ancak, tıp alanında sonuçları çok daha ağır olabilir. Providence sağlık sisteminin tıbbi bilgi direktörü Maulin Shah, "İki harf farkı, ama çok büyük bir mesele. Bu tür hatalar son derece tehlikeli" diye uyarıda bulundu. Google, geçen yıl Med-Gemini'nin tıpta önemli potansiyele sahip olduğunu ve röntgen, BT taramaları gibi görüntülerden hastalık tespitinde kullanılabileceğini duyurmuştu. Ancak uzmanlar, tıp gibi yüksek riskli alanlarda hata toleransının çok düşük olması gerektiğini vurguluyorlar. Yapay zeka teknolojisinin, insan denetimi olmadan sağlık sektöründe kullanılmasının riskleri her geçen gün daha net bir şekilde ortaya çıkıyor.

Yapay Zekanın Tıbbi Kullanımının Tehlikeleri

Google'ın Med-Gemini örneği, yapay zekanın tıp alanında hala geliştirme aşamasında olduğunu ve kusursuz olmadığını gösteriyor. Hataların ciddi sonuçlara yol açabileceği göz önüne alındığında, bu teknolojinin sorumlu ve dikkatli bir şekilde kullanılması şart. Gelişmiş yapay zeka sistemlerinin insan uzmanlar tarafından sürekli olarak denetlenmesi ve doğrulanması büyük önem taşıyor. Akıllıca tasarlanmış güvenlik önlemleri ve düzenlemeler, bu tür hataları azaltmaya ve hasta güvenliğini sağlamaya yardımcı olabilir. Tıp sektörü için güvenilir bir yapay zeka geliştirmek için, halüsinasyon gibi sorunların üstesinden gelmek ve hata oranını en aza indirmek için daha fazla araştırma ve geliştirmeye ihtiyaç var.