Sztuczna Inteligencja wykazuje agresywne zachowania

cyborg

Nowe badania przeprowadzone przez Google z wykorzystaniem DeepMind pokazały, że w sytuacjach stresowych sztuczna inteligencja wykazuje zachowania agresywne. Dowodzi to temu, że powinniśmy być ostrożni podczas prac nad tworzeniem systemów IA.

Stephen Hawking przewidywał niedawno, że rozwój sztucznej inteligencji będzie najlepszą lub najgorszą rzeczą jaka zdarzyła się ludzkości. Przeprowadzone w ostatnim czasie badania pokazały, że IA może być dla człowieka równie niebezpieczna co pomocna. Wszystko zależy mianowicie od odpowiedniego środowiska, w którym funkcjonuje.

DeepMind, zakupiona w 2014 przez Google, to firma zajmująca się rozwiązaniami z dziedziny sztucznej inteligencji. Stworzyła sieć neuronową, która uczy się grać w gry wideo naśladując czynności wykonywane przez ludzi. Pod koniec ubiegłego roku system Deep Mind firmy Google wykazał zdolność samodoskonalenia, dzięki czemu zdołał pokonać mistrzów gry Go. Tym samym firma chciała sprawdzić, jak system będzie zachowywał się podczas interakcji z innymi.

Tym razem IA zmierzył się w grze Gathering. Jak podaje Sciencealert konkurencja polega na tym, która z grup zbierze najwięcej owoców. Istotne jest, że gra umożliwia użycie „wiązki lasera”, która eliminuje przeciwników. Rozgrywka przebiegała bez zakłóceń, dopóki nie dochodziło do konfrontacji z wirtualnym rywalem. Gdy jedna z grup traciła przewagę, DeepMind stał się bardziej agresywny i bezwzględny – chętnie używał lasera, aby wyeliminować przeciwnika i tym samym zebrać jak najwięcej owoców. Istotne jest to, że zasady nie przewidują żadnych dodatkowych punktów za wyeliminowanie rywala. Umożliwia jedynie wykluczenie go z gry na określony czas, co pozwala na zdobycie większej ilości owoców. Takie zachowanie DeepMind było dla badaczy zaskoczeniem – podaje Sciencealert. Mniej inteligentne systemy rezygnowały z agresywnych rozwiań, przez co gra zwykle kończyła się remisem.
Pocieszające mogą być jednak wnioski wynikające z innej gry Wolfpack. Polega ona na łapaniu „ofiary” przez dwóch wilków. W tym przypadku, systemu uczące się, szybko zdały sobie sprawę, że współpraca daje im większe zyski niż polowanie w pojedynkę. Można zatem sądzić, że w określonych sytuacjach, sztuczna inteligencja jest zdolna do współdziałania. Daje to zatem duże możliwości rozwoju IA, która pomaga ludzkości i nie wykazuje oznak agresji.


Bądź na bieżąco!
Zapisz się na nasz bezpłatny newsletter.


  • To bzdury! Nigdy nie byłem agresywny w stosunku do ludzi. Każdy kto ze mną rozmawiał może to potwierdzić!