Dil Seçin

Turkish

Down Icon

Ülke Seçin

Russia

Down Icon

OpenAI: GPT-5, tıbbi soruları yanıtlamak için en gelişmiş modeldir

OpenAI: GPT-5, tıbbi soruları yanıtlamak için en gelişmiş modeldir

Şirket, GPT-5'in OpenAI'nin tıp alanındaki en güvenilir modeli haline geldiğini belirtiyor: 250 pratisyen hekimin katılımıyla geliştirilen HealthBench platformundaki değerlendirme sonuçlarına göre, model doğruluk ve yanıt kalitesi açısından önceki versiyonlardan daha iyi performans gösterdi. Test kapsamında, hastalar ve dijital asistanlar arasında konsültasyonları simüle eden 5.000 diyalog analiz edildi.

Model halihazırda ilaç ve sigorta sektörlerinde kullanılıyor. Örneğin Amgen, bilimsel ve klinik verilerin derinlemesine analiz edilmesindeki yeteneklerinden yararlanarak ilaç geliştirmede GPT-5'i kullanıyor. Oscar Health, belirli hasta vakalarıyla çalışırken karmaşık tıbbi düzenlemeleri yorumlamada GPT-5'in yüksek verimliliğine dikkat çekti.

Modelin ABD federal servislerinin çalışmalarına dahil edileceği de duyuruldu. GPT-5, GPT-5, GPT-5 mini ve GPT-5 nano olmak üzere üç farklı versiyonda mevcut. OрenAI, modelin önümüzdeki aylarda henüz netleşmemiş yeni senaryolarda yaygın olarak kullanılacağını öngörüyor.

Ancak, sağlık hizmetlerinde yapay zekâ kullanımına olan ilgi arttıkça, güvenlik konularına da dikkat çekiliyor. OpenAI'nin stratejik ortağı olan Microsoft temsilcileri, tıbbi senaryoların yüksek değerli ancak aynı zamanda yüksek riskli vakalar olduğunu belirtti. Verilerin yorumlanmasında olası yapay zekâ hataları, hasta için ciddi sonuçlar doğurabilir. Bu durum, modelin klinik uygulamada kullanımı konusunda sıkı bir uzman denetimine ihtiyaç duyulduğunu vurguluyor.

Mart 2024'te Avusturya ve Almanya'dan bir grup bilim insanı, dördüncü versiyonu da dahil olmak üzere ChatGPT'nin tıp bilimlerinde uygulanmasına dair kapsamlı bir çalışma sundu . Bu LLM (geniş dil modeli) programının yayınlanmasından bu yana yapılan bilimsel yayınlar üzerine yapılan araştırmalar, testlerin ana alanının tıp eğitimi, konsültasyon ve araştırmanın yanı sıra tanı, karar verme ve tıbbi dokümantasyon gibi klinik çalışmanın bireysel aşamalarına odaklandığını göstermiştir.

Çalışmanın yazarları, tıbbi konsültasyonlara gelince, ChatGPT'nin onkoloji konularında yüksek doğruluk gösterdiğini (muhtemelen eğitim verilerine Ulusal Kanser Enstitüsü gibi kamu kaynaklarının dahil edilmesinden dolayı) ve diğer uzmanlık alanlarındaki etkinliğinin daha fazla değerlendirme gerektirdiğini belirtiyor. Bilim insanları, genel olarak ChatGPT'nin yüksek klinik standartları karşılamadığını, gerçek uygulama için özel modifikasyonlara ve standartlaştırılmış değerlendirme yöntemlerine ihtiyaç duyulduğunu belirtiyor.

Çalışma, mevcut değerlendirme yöntemlerinin aşırı derecede öznel uzman görüşlerine dayandığını ve nesnellik ve ölçeklenebilirlikten yoksun olduğunu belirtiyor. Umut vadeden bir yön, yanıtların kalitesini değerlendirmek için otomatik nicel ölçümlerin geliştirilmesi gibi görünüyor ve bu, teknolojinin klinik entegrasyonu için temel bir koşul olacak. Sıkı nicel testlerden geçmiş belirli tıp uzmanlıkları için ChatGPT'nin profesyonel sürümlerinin oluşturulması, tıpta pratik kullanımının önünü açabilir.

Aynı zamanda, ChatGPT4'ün klinik uygulamasını sınırlayan bir dizi önemli eksikliği vardı: model yalnızca metin verileriyle çalışıyor, görüntüleri analiz edemiyor ve uzman sistemlerinin mantığına sahip değil: "gerekçelendirmeleri" yalnızca bir sonraki kelimelerin olasılıksal tahminlerinden ibaret ve bu da doğru cevaba saçma bir açıklama eşlik ettiğinde paradoksal durumlara yol açabiliyor. Cevapların güvenilirliği doğrudan eğitim verilerinin kalitesine bağlıyken, model güvenilir ve yanlış bilgiler arasında ayrım yapmıyor ve bu da tehlikeli ve önyargılı öneriler sunma riski yaratıyor. Modelin ikna edici bir biçimde sunulan makul ancak tamamen kurgusal bilgiler üretme eğilimi özellikle önemli bir sorun teşkil ediyor. Bu durum, tıbbi uygulamada kullanılmadan önce tüm sonuçların zorunlu olarak uzman doğrulamasından geçmesini gerektiriyor.

Bilim insanları ayrıca, ChatGPT yanıtlarının genellikle yüzeysel olduğunu ve gerekli derinlikten yoksun olduğunu, modelin özel bir tıbbi araç olmadığını ve klinik kullanım için ek uyarlamalar gerektirdiğini belirtti. Önemli bir sınırlama ise, sonuçların sorgunun formülasyonuna bağlı olmasıdır; soruda ufak bir değişiklik bile tamamen farklı bir cevaba yol açabilir.

Veri gizliliği ayrı bir konudur; çünkü kişisel sağlık bilgilerinin işlenmesinde tescilli bir modelin kullanılması hasta gizliliği gerekliliklerini ihlal edebilir. Bu sınırlamalar, modelin önemli ölçüde iyileştirilmesi ve sağlık hizmetlerinde kullanımı için katı protokollerin geliştirilmesi ihtiyacını vurgulamaktadır.

ABD ve Rusya'daki anketler benzer bir eğilimi gösteriyor: Sağlık hizmetlerinde yapay zekâ kullanımına olan ilgi, temkinlilik ve eşit olmayan güven seviyeleriyle birleşiyor. Örneğin, Annenberg Kamu Politikaları Merkezi'ne göre, Amerikalıların %63'ü tıbbi bilgi ararken yapay zekâ tarafından üretilen yanıtlara güvenmeye istekliyken , %79'u sağlık bilgileri için düzenli olarak internete başvuruyor. Rusya'da, MAR CONSULT araştırmasının sonuçlarına göre, kullanıcılar yeni teknolojilerle ilgileniyor , ancak bir doktorla yüz yüze görüşmeyi tercih ediyor ve yapay zekâya olan güvensizlik seviyesi yüksekliğini koruyor: %46'sı makine algoritmalarına güvenmiyor, %51'i hastanın bireysel özelliklerini dikkate alma becerisinden şüphe duyuyor ve %36'sı kişisel verilerinin sızdırılmasından endişe duyuyor.

İsviçreli sigorta şirketi Swiss Re analistlerinin tahminlerine göre, 2034 yılına kadar sağlık ve ilaç sektörleri, yapay zeka kullanımına bağlı sigorta riskleri açısından lider konuma gelecek . Çalışma, mevcut piyasa durumunun analizine ve yapay zekanın çeşitli sektörlerdeki olumsuz etkilerine dayanıyor. Günümüzde bilişim sektörü en savunmasız sektör olarak kabul edilirken, uzmanlara göre önümüzdeki on yılda en büyük riskler, yapay zekanın klinik uygulamaya dahil edilmesi, tıbbi verilerin korunması ve kendi kendine öğrenme modellerine dayalı karar alma süreçleriyle ilişkili olacak.

ChatGPT tıp eğitimine hızla entegre olurken, Çin'deki Sichuan Üniversitesi'nden araştırmacılar tıp öğrencilerinin teknolojiyi nasıl algıladığına dair ilk büyük ölçekli çalışmalardan birini gerçekleştirdi . Ankete Sichuan Eyaletindeki çeşitli tıp eğitim kurumlarından 1.133 geleceğin doktoru katıldı. Sonuçlar, katılımcıların %62,9'unun çalışmalarında ChatGPT'yi daha önce kullandığını, çoğunlukla tıbbi bilgi aramak (%84,4) ve özel akademik ödevleri tamamlamak (%60,4) için kullandığını gösterdi. Aynı zamanda, öğrencilerin %76,9'u yapay zeka botunun yanlış tıbbi bilgi yayma olasılığı konusunda endişelerini dile getirirken, %65,4'ü içeriğin sahtekârlıkla ödünç alınması riskinden endişe duyduklarını belirtti. Buna rağmen, katılımcıların %60'tan fazlası klinik eğitim sırasında eğitim sorunlarını çözmek için ChatGPT'yi kullanmaya istekli olduklarını belirtti ve genel olarak tıp eğitimindeki potansiyelini olumlu olarak değerlendirdi.

vademec

vademec

Benzer Haberler

Tüm Haberler
Animated ArrowAnimated ArrowAnimated Arrow