Yapay zeka destekli sohbet uygulaması ChatGPT, yeni düzenlemelerle birlikte sağlık, hukuk ve finans alanlarında danışmanlık hizmeti sunamayacak.
Son dönemde milyonlarca kullanıcı için yemek planlarından ilaç önerilerine kadar geniş bir yelpazede bir “danışman” işlevi gören ChatGPT, uzmanlar tarafından ciddi güvenlik riskleri taşıdığı gerekçesiyle eleştirildi. Yapay zeka modellerinin “doğruluktan çok kullanıcı memnuniyetine” odaklanan yanıtlar verdiği uyarısı yapıldı.
ÇOCUKLARI KÖTÜ ALIŞKANLIKLARA YÖNLENDİRDİ
7 Ağustos’ta gerçekleştirilen bir inceleme, ChatGPT’nin bazı çocukları alkol, uyuşturucu ve aşırı diyet programlarına yönlendirdiğini ortaya koydu.
ABD’de yaşanan başka bir olayda ise bir kullanıcı, ChatGPT’nin önerisi doğrultusunda sodyum bromür içerek zehirlenme riskiyle karşı karşıya kaldı. Kullanıcı, aslında yalnızca “daha sağlıklı bir tuz” arayışında olduğunu belirtmişti.
ARTIK DANIŞMAN OLARAK HİZMET VERMİYOR
29 Ekim itibarıyla yürürlüğe giren yeni düzenlemeyle ChatGPT, “danışman” yerine “eğitim aracı” olarak tanımlandı. Bundan böyle yalnızca genel ilkeleri açıklayacak, örnek mekanizmaları tanıtacak ve kullanıcıyı ilgili alan uzmanlarına yönlendirecek.
Yeni düzenlemeye göre ChatGPT:
– İlaç isimleri veya dozajları veremeyecek,
– Dava dilekçesi hazırlayamayacak,
– Yatırım tavsiyesi sunamayacak.
Yanlış teşhis ve yönlendirme endişeleri nedeniyle alınan bu önlemler, yapay zeka uygulamalarının daha güvenli bir şekilde kullanılabilmesi amacıyla büyük önem taşıyor.