ABD ordusu, yapay zeka kullanılarak geliştirilen silah ve sistemlerde uyulması gerekli beş etik kural yayınladı.
Yapay zeka kullanımının ahlaki olarak en sorunlu alanı savunma sanayi. Birçok bilim insanı tamamen otomatik savaş robotlarının üretimine karşı çıkıyor. Bu eleştiriler ışığında ABD Savunma Bakanlığı askeri sahada yapay zeka kullanımı hakkında beş temel etik değer yayınladı.
Pentagon’un yayımladığı etik kuralların ilk maddesine göre YZ projelerinde geliştirme ve kullanma konusunda son kararı insanın vermesi gerekiyor. İkinci madde ise herhangi bir kişi ya da grubun dışlanmasının engellenmesini öngörüyor.
Çalışanların kullanılan teknolojiyi anlaması ve her adımı takip etmesi üçüncü etik kural olarak tanımlandı. Dördüncü madde ise bütün kullanım alanlarının anlaşılır bir biçimde tanımlanması ve kullanımın nerede ve ne şekilde olacağının testlerle tespit edilmesini öngörüyor.
Beşinci maddede ise bütün yapay zeka sistem ve araçlarında kullanımın insanlar tarafından üstlenilmeye müsait olması öngörülüyor. Acil durumlarda insanların uygulamayı durdurması ve etkisiz hale getirebilmesi mümkün olmak zorunda.