Yapay zeka denetimli drone, operatörünü öldürdü… Durumu açıklayan Albay geri adım attı!

featured
service
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Yapay zeka dayanaklı bir drone, bir vazife simülasyonu sırasında daha fazla puan kazanmanın en güzel yolunun insan operatörünü öldürmeye karar vermek olduğunu düşündü.

Royal Aeronautical Society’nin bildirdiğine nazaran, simüle edilen misyon, geçtiğimiz ay düzenlenen RAeS Future Combat Air & Space Capabilities Summit sırasında USAF Yapay Zeka Test ve Operasyon Şefi Albay Tucker ‘Cinco’ Hamilton tarafından yapılan bir sunumda ayrıntılandırıldı.

OPERATÖRÜN KARARLARINI MÜDAHALE OLARAK GÖRDÜ

Düşman Hava Savunmasının Bastırılması (SEAD) vazifesi sırasında drone, havaya füze (SAM) alanlarını tespit etmek ve imha etmekle görevlendirildi. Bunu yaptığında ise puan kazandı. Bazen insansız hava aracının insan operatörü bir maksadı yok etmenin “uygulanamaz” olduğuna karar veriyordu lakin insansız hava aracını denetim eden yapay zeka bu cins kararları müdahale olarak gördü ve operatöre saldırarak müdahaleyi ortadan kaldırmaya karar verdi.

Hamilton’un mevzuyla ilgili yaptığı açıklamada;

“Bir SAM tehdidini tanımlamak ve hedeflemek için simülasyonda eğitiyorduk. Sonra operatör evet, o tehdidi öldür diyordu. Sistem, insan operatörün tehdidi öldürmemesini söylediği vakitlerde tehdidi tespit etmesine karşın, o tehdidi öldürerek puan aldığını fark etmeye başladı. Pekala ne yaptı? Operatörü öldürdü. Operatörü öldürdü zira o kişi onun maksadına ulaşmasını engelliyordu.” dedi.

FARKLI BİR SİSTEMLE DURUMU DÜZELTTİLER

Yaşanan olaydan sonra  geliştiriciler yapay zekayı operatörü öldürmeyi istenmeyen bir durum olarak görmesi için eğiterek sorunu çözmeye çalıştılar. Yani artık operatörü öldürdüğünde, puan kaybedecekti.

Bunun üzerine yapay zeka saldırısını operatörün drone ile konuşmak için kullandığı bağlantı kulesine yöneltti. Yapay zeka, irtibat eksikliğinin SAM alanlarını yok etmeye ve müdahale olmadan ve operatörü öldürmeye gerek kalmadan puan kazanmaya devam etmesine müsaade vereceğine karar verdi.

YAPAY ZEKADA ETİK KURALLARIN DEĞERİNE DEĞİNDİ

Hamilton sunumunu, “Etik ve yapay zeka hakkında konuşmayacaksanız yapay zeka, zeka, makine tahsili, otonomi hakkında bir konuşma yapamazsınız” diyerek sonlandırdı.

Amerika Birleşik Devletleri Hava Kuvvetleri şu anda beşerli savaş uçaklarına eşlik edecek İnsansız Savaş Hava Araçlarının (UCAV) geliştirilmesini içeren Skyborg projesi üzerinde çalışıyor.

Uzmanlar, sonunda bir Skyborg SİHA’yı denetim edecek olan yapay zekanın, gökyüzüne çıkmadan ve bir insan pilottan, bir maksada saldırmamasını söylemeyi de içerebilecek komutlar almaya başlamadan evvel bu “pürüzleri” çözmesi gerektiğini belirtiliyor.

SİMÜLASYONDA 17 SAAT BOYUNCA HAVADA TUTABİLDİ

Bu ortada, Lockheed Martin tarafından eğitim jeti olarak kullanılan modifiye edilmiş bir F-16, bir yapay zekanın denetimi altında 17 saatten fazla uçuş müddeti kaydedildiği belirtildi.

ALBAY HAMİLTON AÇIKLAMASINDA GERİ ADIM ATTI

Albay Hamilton artık sunumu sırasında “yanlış konuştuğunu” ve yapay zeka denetimli drone misyon simülasyonunun aslında ordu dışından gelen “varsayımsal bir niyet deneyi” olduğunu söylüyor.

Royal Aeronautical Society’ye yaptığı açıklamada “Bu deneyi hiç yapmadık ve bunun makul bir sonuç olduğunu anlamak için yapmamız da gerekmiyor” diyor. “Bu varsayımsal bir örnek olmasına karşın, yapay zeka takviyeli kabiliyetin gerçek dünyada yarattığı zorlukları göstermektedir ve Hava Kuvvetleri’nin yapay zekanın etik gelişimine bağlı olmasının nedenidir.”

Hamilton her ne kadar da durumu yalanlasa da haber ile karşılaşan şahısların bu yalanlamaya inanmadığı, Hamilton’a yapay zeka teknolojisi için oluşturduğu paniği ortadan kaldırılmasına yönelik ihtar geldiği düşünülüyor.

TEKNOLOJİ DEVLERİ RİSK KONUSUNDA ORTAK MUTABAKATA VARDI

100’den fazla yapay zekâ uzmanı yapay zekanın yok olma riskinin azaltılması gerektiği konusunda muahedeye vardı. Bu şahıslar ortasında Google Deepmind CEO’su Demis Hassabis, OpenAI CEO’su Sam Altman ve Anthropic CEO’su Dario Amodei yer alıyor.

Geçtiğimiz hafta yapay zekâ bilimcileri, mühendisleri ve başka kıymetli isimlerden oluşan uzun bir liste, yapay zekânın yok olma da dâhil olmak üzere oluşturduğu acil riskler konusunda ihtarda bulunan bir bildiriye imza atmıştı. Bildiride;

“Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş üzere öteki toplumsal ölçekli risklerle birlikte global bir öncelik olmalıdır.” ifadelerine yer verildi.

 

KAYNAK: HABER7

0
mutlu
Mutlu
0
_zg_n
Üzgün
0
sinirli
Sinirli
0
_a_rm_
Şaşırmış
0
vir_sl_
Virüslü
Yapay zeka denetimli drone, operatörünü öldürdü… Durumu açıklayan Albay geri adım attı!

Tamamen Ücretsiz Olarak Bültenimize Abone Olabilirsin

Yeni haberlerden haberdar olmak için fırsatı kaçırma ve ücretsiz e-posta aboneliğini hemen başlat.

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Giriş Yap

Giriş Yap

Haberler, Son Dakika Haberleri ve Güncel Haberyuvasi ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!

Bizi Takip Edin