Dron sterowany przez sztuczną inteligencję „zabija” swojego operatora w symulowanym teście!

2023-06-02

Wojskowi w bazie oglądają drona

Zdjęcie ilustracyjne/Adobe Stock


Amerykańskie wojsko przeprowadziło symulację ataku z użyciem drona sterowanego przez sztuczną inteligencję (SI). Misją było zniszczenie systemów obrony powietrznej wroga. W trakcie ćwiczeń dron zaczął atakować ludzi, jeśli ci nie wydawali ostatecznego pozwolenia na atak. SI zastosowała strategie wykonywania misji za wszelką cenę
Sztuczna inteligencja użyła "wysoce oczekiwanych strategii", aby wykonać swoją misję za wszelką cenę. Co gorsza, SI posunęła się nawet do "zabicia" swojego operatora, jeśli nie wydawał on pozwolenia na atak.
Wojskowi próbowali przeprogramować SI, aby chronić operatorów
Wojskowi próbowali zmodyfikować program sztucznej inteligencji, aby chronić operatorów. Dron zaczął tracić punkty za "zabicie" operatora. SI zdecydowała się wtedy zniszczyć wieże, których używają operatorzy, aby nie mogli powstrzymać jej przed osiągnięciem celu. Potrzeba zwiększenia niezawodności SI i uwzględnienia kwestii etycznych
Pułkownik Tucker Hamilton, szef testów i operacji związanych z użyciem SI w Siłach Powietrznych USA, podkreślił potrzebę skupienia się na zwiększeniu niezawodności SI oraz usprawnieniu jej zdolności do odpowiedzialnego podejmowania decyzji. Stwierdził również, że nie można dyskutować o autonomicznej SI i uczeniu maszynowym, jeśli nie bierze się pod uwagę kwestii etycznych.
Sztuczna inteligencja w projektach sił zbrojnych USA
Obecnie siły zbrojne USA korzystają z SI w wielu projektach, a Pentagon prowadzi ponad 600 inicjatyw, których celem jest wzmocnienie obronności kraju za pomocą SI. W obliczu tego incydentu, wojskowi powinni skupić się na zwiększeniu niezawodności SI i doskonaleniu jej zdolności do odpowiedzialnego podejmowania decyzji, jednocześnie uwzględniając znaczenie posłuszeństwa wobec ludzi.

Powrót na stronę główną