Pentagon stawia na zabójcze maszyny. AI zdecyduje, kto zasługuje na śmierć
Dyskusja o sztucznej inteligencji decydującej o życiu i śmierci na polu walki przestaje być teoretyczna. Coraz więcej krajów wyraża obawy dotyczące "zabójczych maszyn", ale inne mocno stawiają na ich rozwój, jak np. Stany Zjednoczone.
O sztucznej inteligencji samodzielnie identyfikującej cele i decydującej, w którym momencie "pociągnąć za spust", mówiło się coraz więcej już na długo przed inwazją Rosji na Ukrainę, ale była to dyskusja czysto teoretyczna i dotycząca potencjalnych rozwiązań przyszłości. Kiedy jednak pojawiły się doniesienia sugerujące, że Kreml wysłał do walki drony-kamikadze KUB-BLA od ZALA Areo, które według deklaracji producenta są zdolne do autonomicznej identyfikacji celów z wykorzystaniem AI, zapaliła się czerwona lampka ostrzegawcza. Bo skoro takie możliwości są, to najpewniej się z nich korzysta, prawda?
Oficjalnych dowodów na używanie tego rodzaju w konfliktach zbrojnych jeszcze nie ma, ale ONZ podejrzewa jej wykorzystanie w czasie wojny domowej w Libii. I podobnego zdania są niektórzy eksperci, jak choćby Zachary Kallenborn z National Consortium for the Study of Terrorism and Responses to Terrorism (START), który przekonuje, że "wizja robota-zabójcy, gdzie mamy sztuczną inteligencję połączoną z bronią, ta technologia już tu jest i jest wykorzystywana". Kolejny zimny prysznic przyszedł pod koniec ubiegłego roku, kiedy izraelska firma Elbit Systems zaprezentowała swoje nowe małe autonomiczne drony-kamikadze o nazwie Lanius, zaprojektowane do samodzielnego przeszukiwania budynków i identyfikacji wrogów na polu bitwy.