Bilim adamları gözetim olmadan öldüren yapay zekâ inşa etmeme sözü verdi

trendlerlistesi

Bilim adamları gözetim olmadan öldüren yapay zekâ inşa etmeme sözü verdi

Bilim adamları gözetim olmadan öldüren yapay zekâ inşa etmeme sözü verdi
Bilim adamları gözetim olmadan öldüren yapay zekâ inşa etmeme sözü verdi
Binlerce bilim insanı, insan gözetimi olmadan öldürme kabiliyetine sahip AI‘ların oluşturulmasında hiçbir rolü olmayan bir taahhütte bulunmuştur.
Birçok kişi AI‘yı düşündüğü zaman, en azından Terminator’deki rezil Skynet gibi bilim kurgu filmlerinde görülen haydut AI‘lar hakkında bazı düşünceler veriyorlar .
İdeal bir dünyada, AI hiçbir zaman askeri kapasitede kullanılamaz. Bununla birlikte, neredeyse kesinlikle kesinlikle benzer yetenekleri olmayan bir düşmana sağlayacağı avantaj nedeniyle bir şekilde veya başka bir şekilde geliştirildi.
Rusya Devlet Başkanı Vladimir Putin, AI hakkındaki düşüncelerini sorduğunda yakın zamanda şunları söyledi: “Bu alanda lider olan her kimse, dünyanın yöneticisi olacak” dedi.
Putin’in sözleri , AI gelişiminde nükleer silah yarışına benzer ve potansiyel olarak kayıtsız olabilecek bir ırk korkusuna yol açtı .
Askeri AI gelişimini durdurmaya çalışmak yerine, daha ulaşılabilir bir amaç, en azından öldürmek için herhangi bir AI kararının insan gözetimine tabi olmasını sağlamaktır.
Google DeepMind’teki Demis Hassabis ve SpaceX’ten Elon Musk, insan gözetimi olmadan öldüren AI veya robot geliştirmeme taahhüdünü imzalayan 2.400’den fazla bilim adamı arasında.
Rehin, The Future of Life Enstitüsü tarafından oluşturuldu ve hükümetleri katil robotların gelişimini engelleyen ve etkili bir şekilde yasaklayan yasa ve yönetmelikler üzerinde anlaşmaya çağırıyor.
İmzalananlar, insan hayatını alma kararının asla bir makineye devredilmemesi gerektiğine katılıyoruz” diyor. “İnsanların müdahalesi olmadan hedefleri seçmek ve çekmek, öldürücü özerk silahların her ülke ve birey için tehlikeli derecede dengesiz olacağı” konusunda uyarmaya devam ediyor.

İNSANLIĞI PROGRAMLAMAK

İnsan şefkatinin programlanması zordur, kesinlikle bunu yapabilmekten yıllarca uzağız. Ancak, ölüm kalım meseleleri söz konusu olduğunda hayati önem taşır.
Bir ulusu korumak için kurulmuş bir füze savunması AI düşünün. Saf mantığa dayanarak, bir füze programı başlatan başka bir ulusun ortadan kaldırılmasının kendi güvenliğini korumanın en iyi yolu olduğunu belirleyebilir. İnsanlar, bu insanların hayatlarını göz önünde bulundururlar ve diplomatik kararlar gibi alternatifler aranmalıdır.
Robotlar, bir gün insan memurlarının riskini azaltmak için polislik amacıyla kullanılabilir. Ateşli silahlarla veya taşlarla silahlı olabilirler, ancak ateş etme sorumluluğu her zaman bir insan operatörüne düşmelidir.
Kuşkusuz zamanla gelişmesine rağmen, AI’nın ciddi bir önyargı sorunu olduğu kanıtlandı. Dallas’taki NIST ve Texas Üniversitesi’ndeki araştırmacılar tarafından yapılan 2010 tarihli bir araştırma, Doğu Asya’da tasarlanan ve test edilen algoritmaların Doğu Asya’yı tanımada daha iyi olduğunu, Batı ülkelerinde tasarlananların Kafkasyalıları tespit etmede daha doğru olduğunu buldu.
Birini başka bir kişi için yanlışlıkla tanıtan silahlı bir robot, algoritmalarıyla ilgili bir kusur nedeniyle bu kişiyi öldürebilir. AI’nın değerlendirmesini bir insan operatör ile onaylamak, böyle bir felaketi önlemek için yeterli olabilir.

Devamını oku: INTERPOL, AI’nın suç ve polisliği nasıl etkileyeceğini araştırıyor

Ayrıca bkz :  Skolyoz nedir ?Skolyoz hastalığı neden olur?

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir