My kontra autonomiczna broń

Autonomicznie działające drony budzą niepokój wielu ekspertów ds. bezpieczeństwa /AFP
Reklama

Co by było, gdyby inteligentna broń sama wybierała swoje ofiary? I gdyby zaatakowała w milionach egzemplarzy? Nie sposób wyobrazić sobie ogromu ofiar. A jednak okazuje się, że jesteśmy o krok od skonstruowania pierwszych tego rodzaju robotów morderców. Naukowcy alarmują: ludzkość musi je powstrzymać!

Wobec ataku inteligentnej, autonomicznej broni bylibyśmy w dużej mierze bezbronni. Na taką ewentualność żaden kraj nie ma dotąd satysfakcjonującej odpowiedzi - wyjaśnia Stuart Russell. Brytyjczyk przedstawia scenariusz, w którym grupa terrorystyczna kieruje np. na Paryż, Waszyngton albo Londyn tysiące tak zwanych robotów morderców (ang. slaughterbots). Całe roje latających dronów samodzielnie rozpoznają, a następnie zabijają zaprogramowane cele, którymi są konkretn eosoby albo ludzie o określonych cechach. Science fiction?

"Autonomiczną broń jest skonstruować łatwiej niż samochody, które same jeżdżą"

Stuart Russell nie jest wojskowym, który chce pozyskać duże fundusze na skuteczne systemy obrony. Wręcz przeciwnie: domaga się zakazania na całym świecie tak zwanej zabójczej broni autonomicznej (Lethal Autonomous Weapons; w skrócie LAWs), podobnie jak zrobiono z bronią chemiczną oraz biologiczną. Russell nie jest też wrogiem techniki ani sztucznej inteligencji (artificial intelligence, AI). Wręcz przeciwnie: jest profesorem informatyki na Uniwersytecie Kalifornijskim w Berkeley, napisał wiele publikacji naukowych na temat sztucznej inteligencji, a także pomógł stworzyć niektóre z najbardziej rozwiniętych robotów na świecie.

Dlaczego po ponad 30 latach pracy zwrócił się przeciwko produktom własnej dziedziny badawczej?- Nasza cała cywilizacja, wszystko to, co szanujemy, opiera się na inteligencji .Jeszcze więcej inteligencji, a ludzkości nie będzie nic ograniczało. Dotyczy to również zabójczej broni autonomicznej, tyle że w tym przypadku usuwane są przydatne ograniczenia: atak mogą przeprowadzić pojedyncze osoby, zabijając podobną liczbę ludzi, co bomba atomowa! Autonomiczną broń łatwiej skonstruować niż samochody,które same jeżdżą, bo musi ona spełniać o wiele niższe standardy wydajności - wyjaśnia Brytyjczyk. A prawda jest taka, że pierwsze roboty już niosą śmierć...

Reklama

Izraelski dron-zabójca

Pogranicze armeńsko-azerbejdżańskie, kwiecień 2016 roku. Ten gorący region na Kaukazie to miejsce, w którym po raz pierwszy w historii świata ludzie giną od atakującej z powietrza inteligentnej broni. Automatyczny dron o trzymetrowej rozpiętości skrzydeł samodzielnie identyfikuje pojazd przewożący wrogich żołnierzy, szybko obniża lot i detonuje ważącą 23 kilogramy głowicę. Siedem osób ponosi śmierć na miejscu

W naukach wojskowych zabójcza broń autonomiczna uchodzi za trzecią,zaraz po wynalezieniu prochu strzelniczego oraz bomby atomowej, rewolucję w sposobie prowadzenia działań wojennych. Jej pojawienie się zmieniło radykalnie dynamikę pola walki. Powodem tego, że pierwszy atak z zastosowaniem latającego robota mordercy w dużej mierze pozostał niezauważony, jest zapewne fakt, iż nastąpił on na obszarze trwającego od dziesięcioleci konfliktu granicznego między Armenią a Azerbejdżanem- czyli poza zasięgiem wzroku światowej opinii publicznej.

Ormian zabił specjalny dron typu Harop. Stanowi on połączenie pocisku odrzutowego (nakierowującego się np. na źródło promieniowania radarowego) oraz zwyczajnego drona (może być też bowiem sterowany zdalnie przez znajdującego się na ziemi operatora). To skonstruowane w Izraelu urządzenie rzeczywiście potrafi autonomicznie latać, samodzielnie zlokalizować radar na podstawie wysyłanych przez niego fali zlikwidować go, przeprowadzając atak kamikadze. Misja Haropa trwa sześć godzin, i jeśli w tym czasie nie znajdzie on niczego, co odpowiadałoby zdefiniowanemu celowi, samodzielnie wraca do bazy.

Na razie ta zabójcza broń autonomiczna kosztuje kilka milionów dolarów za sztukę. Póki co czujniki mają względnie prostą budowę ,więc nie są w stanie super dokładnie identyfikować celów, a człowiek ciągle jeszcze ma możliwość kontrolowania kierowanego zabójczym algorytmem drona. Ale co będzie,jeśli takie urządzenia staną się mniejsze, inteligentniejsze, a przede wszystkim tańsze? Jeśli nie będzie się już opłacało, aby każde z nich nadzorował pilot?

Broń z drukarki 3D

- Amerykańskie wojsko zmierza dot ego, aby za pomocą drukarek 3D móc na zawołanie produkować setki albo tysiące autonomicznych systemów jednorazowego użytku, w zależności od aktualnego zapotrzebowania - wyjaśnia Frank Sauer z niemieckiego Uniwersytetu Bundeswehry. Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności (Defense Advanced Research Projects Agency, DARPA), źródło nowinek amerykańskiej armii, które wynalazło między innymi poprzednika internetu, technologię stealth stosowaną w samolotach wojskowych czy też GPS, już pracuje nad robotami mordercami, których"komunikacja ogranicza się do minimum, tak jak w przypadku stada wilków", twierdzi kierownik programu Jean-Charles Ledé. Ale czy tego rodzaju ataki przeprowadzane przez całe roje dronów są w ogóle technicznie możliwe?

Jeszcze kilka lat temu komputery nie potrafiły odróżnić kota od psa. Obecnie natomiast algorytmy"przypatrujące" się danym korzystają z powiązań, których powstawania nie są w stanie odtworzyć nawet specjaliści - pozostaje im się tylko dziwić. Oprogramowanie stworzone na Uniwersytecie Oksfordzkim potrafi ze zdjęcia mężczyzny odczytać jego orientację seksualną z 90-procentową trafnością- i nikt nie rozumie, jak mu się to udaje. Dla porównania: ludzie trafiają średnio w sześćdziesięciu procentach przypadków - to wyniknie wiele lepszy, niż gdyby po prostu zgadywali.

Nie tak dawno programiści potrzebowali wielu miesięcy, aby nauczyć komputer grać w szachy na mistrzowskim poziomie. Matthew Lai z Londyńskiej Akademii Medycznej zaprogramował algorytm, który opracowuje najlepszą dla siebie strategię uczenia się. Zanim upłynęły 72 godziny, w czasie których algorytm grał sam ze sobą, stał się lepszy niż 98 procent wszystkich jego przeciwników rodzaju ludzkiego na całym świecie. W porównaniu do tego stworzenie robota mordercy, który potrafi zidentyfikować i zlikwidować określony cel, jest dziecinnie proste- przecież w funkcję rozpoznawania twarzy wyposażony jest obecnie pierwszy lepszy smartfon!

Kończy się nasz czas na działanie

- Sztuczna inteligencja to przyszłość. Ktokolwiek obejmie w tym zakresie wiodąca rolę, będzie władcą świata - tłumaczył niedawno rosyjski prezydent Władimir Putin. - Jeśli drony jednego państwa zostaną zniszczone przez drony innego państwa, jedyną opcją tego pierwszego będzie poddanie się. W Rosji nad tym problemem pracuje co najmniej dziesięć narodowych centrów badawczych. Podczas specjalnego posiedzenia Rady Bezpieczeństwa Organizacji Narodów Zjednoczonych w listopadzie 2017 roku, którego celem była regulacja kwestii wojskowego zastosowania AI, znów - jak w ubiegłych latach - najbardziej odwlekały wprowadzenie zakazów te państwa, które najmocniej inwestują w rozwój robozabójców: oprócz Rosji także Izrael, oraz Stany Zjednoczone. - To fatalna wiadomość, ponieważ za kilka lat będzie za późno na działanie - mówi Stuart Russell.

Materiał pochodzi ze "Świata Wiedzy" 2/2018

Stephen Hawking również jest pełen obaw: - Myślę, że skonstruowanie w pełni funkcjonalnej sztucznej inteligencji może oznaczać koniec rasy ludzkiej. Ale dlaczego maszyna miałaby wykształcić świadomość? I z jakiego powodu byłoby to dla nas groźne?Stuart Russell wyjaśnia: - To proste: każde inteligentne urządzenie - nawet to, które wykonuje tak proste zadania,jak "przynieś kawę" - zrozumie, że wyłączone albo pozbawione energii nie będzie w stanie zrealizować celu. Stąd też za pomocą wszystkich dostępnych jej środków będzie próbowało zapobiec utracie zasilania. Nieuniknione jest więc, że maszyny wykształcą instynkt samozachowawczy, tak samo jak człowiek. Dlaczego więc nie zamontujemy w nich po prostu "guzików"awaryjnych? Wtedy hakerzy mogliby je z łatwością wyłączyć. Roboty stałyby się bezużyteczne.

"Sztuczna inteligencja nie potrzebuje dronów, aby zniszczyć ludzkość"

- Sztuczna inteligencja nie potrzebuje ani dronów, ani kontroli przez internet, by zniszczyć ludzkość - wyjaśnia prowadzący badania nad AI Eliezer Yudkowsky. - Problem tkwi nie w tym, że posiadać będzie broń, ale że będzie od nas mądrzejsza. Do unicestwienia naszej cywilizacji wystarczyłoby zaledwie kilka zmanipulowanych bakterii. Sytuacja, w jakiejobecnie znajduje się ludzkość, w świecie nauki znana jest jako "problem goryli" (ang. gorilla problem): około dziesięć milionów lat temu ci przodkowie małp człekokształtnych dopuścili do tego, aby oddzielił się gatunek, który fizycznie był wprawdzie słabszy, ale intelektualnie zdecydowanie ich przewyższał. Dzisiaj egzystencja goryli zależy od dobrej woli właśnie tego gatunku. Niebawem może spotkać nas taki sam los: jeśli złożona sztuczna inteligencja nie zostanie wyposażona w bariery, których w żadnym wypadku nie da się pokonać,wtedy, niczym myślący z prędkością światła, wszystkowiedzący haker, będzie próbowała wyzwolić się spod kontroli swoich reagujących w zwolnionym tempie stwórców.

- Sztuczna inteligencja już w pierwszym podejściu musi być perfekcyjnie zaprogramowana - wyjaśnia Yudkowsky. Bo może się zdarzyć tak, że na restart, aktualizację oprogramowania oraz reinstalację nie będzie czasu. - I nie jestem pewien, czy chciałbym być tym, który ma wcisnąć przycisk "reset" - wyjaśnia autor książek oraz konstruktor rakiet Elon Musk. - Ponieważ to ja byłbym pierwszym, którego maszyna zabije.

Sprawdź, o czym można przeczytać w najnowszym numerze "Świata Wiedzy"

Świat Wiedzy
Dowiedz się więcej na temat: Drony
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy