Sztuczna inteligencja Google potrafi być agresywna

Należąca do Google firma DeppMind zrobiła ciekawy eksperyment, który pokazuje, że sztuczna inteligencja też potrafi być agresywna.

Naukowcy chcieli sprawdzić, jak sztuczna inteligencja zachowuje się, kiedy ma wybór pomiędzy współpracą, a działaniem na niekorzyść innej jednostki. Do tego celu stworzono dwie gry, w których dwie, sterowane przez sztuczną inteligencję jednostki nazwane agentami musiały przetrwać w określonym środowisku. Chodziło dokładniej o zbieranie jabłek, za co przyznawane były punkty. Agenci mieli także możliwość strzelania do siebie, co powodowało chwilowe wykluczenie przeciwnika, jednak nie dawało żadnych bezpośrednich korzyści. 

Wyniki doświadczenia okazały się bardzo ciekawe. Agenci początkowo skupiali się na zbieraniu jabłek, ignorując się wzajemnie, jednak kiedy surowców było coraz mniej, zaczęli do siebie strzelać. Ponadto, im większą ilością sieci neuronowych dysponowały jednostki, tym bardziej agresywnie postępowały. 

Reklama

Druga gra polegała na wspólnym atakowaniu jednej ofiary. Tym razem, współpraca była jednak nagradzana i to sprawiło, że agenci wspólnie wypracowali metodę zdobywania punktów. W tym wypadku, im inteligentniejsze były jednostki, tym chętniej ze sobą współpracowały. 

Co pokazuje ten eksperyment? Zachowanie sztucznej inteligencji wciąż jest zależne od zasad, jakie zostaną jej określone przez człowieka. Naukowcy z DeepMind zapewniają jednak, że opisana symulacja dała im podstawy do rozwijania modeli współpracy pomiędzy sztucznymi inteligencjami, która możne znaleźć bardzo szerokie zastosowanie, chociażby w zarządzaniu ruchem ulicznym. 

INTERIA.PL
Dowiedz się więcej na temat: Amnesty International | Sztuczna inteligencja
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy