To AI kierowało atakami USA na Bliskim Wschodzie. Powrót Project Maven

Jak informują amerykańscy urzędnicy w wypowiedzi dla Bloomberga, Stany Zjednoczone wykorzystały sztuczną inteligencję do identyfikacji celów podczas ataków powietrznych na Bliskim Wschodzie. To technologia opracowana w ramach programu Project Maven.

Jak informują amerykańscy urzędnicy w wypowiedzi dla Bloomberga, Stany Zjednoczone wykorzystały sztuczną inteligencję do identyfikacji celów podczas ataków powietrznych na Bliskim Wschodzie. To technologia opracowana w ramach programu Project Maven.
Bombowiec strategiczny B-1B Lancer to jedna z jednostek wykorzystanych przez USA do ataków na Bliskim Wschodzie /Tech. Sgt. Lee Schading /Wikimedia

Od początku rosyjskiej inwazji na Ukrainę zastanawiamy się, jak duży udział w przeprowadzanych atakach ma sztuczna inteligencja. Bo już w marcu 2022 roku w mediach społecznościowych zaczęły pojawiać się informacje o rosyjskich dronach-kamikadze KUB-BLA, które są szczególnie niebezpieczne ze względu na możliwość w pełni autonomicznego działania.

Budziło to uzasadnione obawy o oddanie w ręce sztucznej inteligencji decyzji na miarę życia i śmierci, bo jeśli zostanie wytrenowana i zaprogramowana do poszukiwania konkretnego rodzaju osób, to samodzielnie może podejmować decyzję o tym, kogo zneutralizować. Co prawda dotąd nie udało się zgromadzić dowodów na udział tego rodzaju broni w konflikcie zbrojnym, ale udział AI w konfliktach zbrojnych rośnie. 

Reklama

USA wykorzystały AI podczas nalotów na Bliskim Wschodzie

Właśnie dowiadujemy się, że podobne rozwiązania testują Stany Zjednoczone, a mówiąc precyzyjniej testowały podczas ataków na Bliskim Wschodzie przeprowadzonych 2 lutego tego roku. Jak się okazuje cele dla amerykańskich bombowców i myśliwców, które zaatakowały obiekty w Iraku i Syrii, pomogła zidentyfikować sztuczna inteligencja.

Schuyler Moore, dyrektor ds. technologii Centralnego Dowództwa Stanów Zjednoczonych, zapewnia jednak w wywiadzie dla Bloomberga, że chociaż algorytmy uczenia maszynowego pomogły zawęzić cele dla ponad 85 amerykańskich ataków powietrznych, a także znaleźć należące do bojowników wyrzutnie rakiet w Jemenie, to były stale kontrolowane przez człowieka i AI nie podejmowało żadnych samodzielnych decyzji. Jego zdaniem pracownicy na bieżąco sprawdzają i weryfikują zalecenia dotyczące celów oraz proponują, w jaki sposób przeprowadzić ataki i jakiej broni użyć.

Wielki powrót Project Maven

Jak wyjaśnia Pentagon, mowa o algorytmach opracowanych w ramach Project Maven, który zakładał wykorzystanie technologii sztucznej inteligencji Google przez armię amerykańską do analizy nagrań i zdjęć z dronów w celu dalszej weryfikacji przez ludzi. Brzmi znajomo? Zdecydowanie, bo chodzi o projekt, który wywołał falę sprzeciwu pracowników amerykańskiego giganta, co zmusiło firmę do zaprzestania współpracy z armią.

W efekcie Google w 2018 roku zdecydowało się nie odnawiać kontraktu kryjącego się pod nazwą Project Maven, który wygasał w 2019 roku i dotyczył właśnie AI do działań wojennych, a później wycofała się także z projektu JEDI (Joint Enterprise Defense Infrastructure), dotyczącego m.in. systemu masowego transferu danych. Co prawda niedługo później, licząc chyba na krótką pamięć swoich pracowników, Google goniło za kolejnym intratnym kontraktem militarnym, ale to już inna sprawa.

Wycofanie się Google nie oznacza jednak, że Pentagon stracił dostęp do opracowanych już technologii, do tego nie zaprzestał wcale dalszych eksperymentów z wykorzystaniem algorytmów do identyfikacji potencjalnych celów. Amerykańskie wojsko testowało ich wykorzystanie w ciągu ostatniego roku w ćwiczeniach cyfrowych, ale po atakach Hamasu z 7 października zaczęło faktycznie używać ich w misjach.

INTERIA.PL
Dowiedz się więcej na temat: USA | Google | Sztuczna inteligencja
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy