Przyszłość pola bitwy

Stephen Hawking i Elon Musk ostrzegają przed bronią autonomiczną

Znani i cenieni naukowcy ostrzegają, że wyścig zbrojeń oparty na sztucznej inteligencji może być katastrofalny w skutkach dla ludzkości. W liście otwartym domagają się, aby ONZ wydała zakaz prowadzenia prac nad autonomiczną bronią ofensywną.

Pod listem opublikowanym przez Future of Life Institute (FLI) podpisali się m.in. Stephen Hawking, Elon Musk (Tesla, SpaceX) czy Noam Chomsky (lingwista, filozof, działacz polityczny). Wszyscy są zaangażowani w badania nad sztuczną inteligencją. Wszyscy są również zdania, że inteligentne maszyny powinny pomagać swoim twórcom, a nie brać czynny udział w wojnach. Ostrzegają, że autonomiczna broń mogąca samodzielnie - bez udziału człowieka - wybierać i likwidować cele, stanie się "kałasznikowem przyszłości", który będzie nowym motorem napędowym wojen, terroryzmu i niestabilności.

Reklama

"Badania nad sztuczną inteligencją osiągnęły poziom, w którym ich wdrożenie będzie kwestią lat, a nie dziesięcioleci" - czytamy w liście. Chęć zmniejszenia start w ludziach poprzez wprowadzenie na pole walki autonomicznych robotów bojowych jest błędem, który może okazać się katastrofalny w skutkach.

"W przeciwieństwie do broni jądrowej - roboty wyposażone w sztuczną inteligencję nie są ani kosztowne, ani skomplikowane w produkcji. Nie wymagają drogich i niezwykle trudnych do uzyskania surowców. Szybko staną się wszechobecne, tanie, gotowe do masowej produkcji. Będzie kwestią czasu, kiedy pojawią się na czarnym rynku, w rękach terrorystów i dyktatorów chcących kontrolować swoje tereny, tyranów planujących czystki etniczne. Broń autonomiczna jest do tego idealna. Pomoże w destabilizacji narodów, selektywnym zabijaniu określonych grup" - ostrzegają w liście naukowcy.

W podsumowaniu czytamy, że rozwój autonomicznej broni przyćmi badania nad pozytywnymi aspektami sztucznej inteligencji. Autorzy sugerują, że ONZ powinna wydać zakaz prowadzenia badań nad rozwojem autonomicznej broni ofensywnej.

Problem staje się poważny i nie dotyczy odległej, nie mającej dla nas znaczenia przyszłości. Amerykańska armia już teraz korzysta z bojowych systemów półautonomicznych. Do 2030 roku ludzie mają stać się najsłabszym ogniwem machiny wojennej opartej na inteligentnych maszynach. Już teraz bardzo trudne może okazać się wyznaczenie granicy pomiędzy robotem autonomicznym a nieautonomicznym - ostrzegają przeciwnicy tej technologii.

INTERIA.PL
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy