ChatGPT może pomóc stworzyć broń biologiczną. Przeprowadzono testy
Od jakiegoś czasu po internecie krążą pogłoski, jakoby popularny model sztucznej inteligencji ChatGPT jest w stanie podpowiedzieć nam, jak stworzyć broń biologiczną. Zaniepokojona tym firma OpenAI postanowiła przeprowadzić testy, by sprawdzić, czy rzeczywiście ChatGPT może pomóc stworzyć broń biologiczną. Opublikowany przez firmę raport mówi jasno: jest taka możliwość...
W środę 31 stycznia firma odpowiedzialna za ChataGPT, OpenAI, opublikowała raport dotyczący testów, którym został poddany popularny model językowy. Wszystko zaczęło się od pogłosek pojawiających się w internecie, sugerujących, że ChatGPT jest w stanie podpowiedzieć nam, jak stworzyć broń biologiczną.
Jakiś czas temu pisaliśmy o najnowszym raporcie RAND Corporation dotyczącym obaw związanych ze sztuczną inteligencją. Według opublikowanego w październiku zeszłego roku dokumentu sztuczna inteligencja może przyczynić się w znacznym stopniu do stworzenia nowej generacji broni biologicznej. Więcej na ten temat tutaj.
OpenAI chcąc rozwiać wszelkie wątpliwości dotyczące szkodliwości ich modelu sztucznej inteligencji, postanowiła przeprowadzić testy. Raport dotyczący procesu przeprowadzania badań nad skłonnościami terrorystycznymi ChataGPT, można znaleźć na oficjalnej stronie OpenAI.