NTIA, önlemlerin ideal olarak Biden yönetiminin bu modellerin söz verildiği gibi “zarar vermeden” çalışmasını sağlamasına yardımcı olacağını söylüyor.
Talep açık uçlu olsa da NTIA, güvenilir yapay zeka için teşvikler, güvenlik testi yöntemleri ve sistemleri değerlendirmek için gereken veri erişimi miktarı gibi alanlarda girdi öneriyor. Ajans ayrıca sağlık gibi belirli alanlar için farklı stratejilerin gerekip gerekmediğini de merak ediyor.
ABD insanları bıraktı yapay zekaya kurallar koymaya başladı!
AI hesap verebilirlik önlemi hakkındaki yorumlar 10 Haziran’a kadar tüm ABD vatandaşlarına açık olacak. NTIA, kural koymayı hayati görüyor. Gözetmen, AI’nın zarar verdiği “artan sayıda olay” olduğunu söylüyor. Kurallar yalnızca bu olayların tekrarını önlemekle kalmayacak, aynı zamanda yalnızca teorik olabilecek tehditlerden kaynaklanan riskleri de en aza indirecek.
ChatGPT ve benzeri üretken yapay zeka modelleri, halihazırda hassas veri sızıntıları ve telif hakkı ihlalleriyle bağlantılı ve otomatikleştirilmiş dezenformasyon ve kötü amaçlı yazılım kampanyalarına ilişkin korkulara yol açmış durumda. Ayrıca doğruluk ve önyargı ile ilgili temel endişeler de bulunuyor. Geliştiriciler bu sorunları daha gelişmiş sistemlerle ele alırken, araştırmacılar ve teknoloji liderleri, güvenliği artırmak ve etik soruları ele almak için yapay zeka geliştirmeye altı aylık bir ara verilmesi çağrısında bulunacak kadar endişeli.
Kaynak: Teknolojioku