Na całym świecie stosuje się udogodnienia związane z możliwościami jakie daje AI. Wojskowość nie jest wyjątkiem. Powszechnie znamy systemy do obsługi dronów bojowych wysokiej technologii, które podejmują autonomiczne decyzje zgodne z ustalonym celem misji wojskowej. Zakodowane dane „celu do zlikwidowania” dane biometryczne wykorzystywane przez maszynę, dron ma wyszukać i zlikwidować cel, gdziekolwiek on by się znajdował, bez znaczenia w jakich okolicznościach, jest zadanie i należy je wykonać szybko i precyzyjnie, wykorzystując cały zasób dostępnych informacji. Maszyna nie ma emocji, empatii ani etyki. To już technologia dość stara, a postęp tej wątpliwej „nauki” jest bardzo szybki. Starą już technologią, na tyle starą, że zwykli ludzie mają o niej informację, są humanoidalne roboty Atlas, wyposażone w samouczącą się sieć neuronową, wyprodukowane przez Boston Dynamics. Tu kilka scen, które powinny dać nam do myślenia.
Może dadzą do myślenia naszemu Ministrowi Cyfryzacji, który z taką dziecinną naiwnością pisał o etycznych systemach robotycznych wykorzystujących AI, w sprawie rozporządzenia PE z 13.03.2024 dotyczącego sztucznej inteligencji. Inna super maszyna, z filmiku powyżej, to robo-pies, psinka J https://geekweek.interia.pl/roboty/news-robo-pies-wyposazony-w-dzialko-snajperskie-to-sie-dzieje-nap,nId,5577778. Ten rozwój dotyczy też Rosji. Su-75, to myśliwiec z 2021r sterowany przez sztuczna inteligencję. Stara wiedza (2018) dotyczy również rosyjskiego nuklearnego dronu podwodnego Posejdon, który może przenosić pociski jądrowe o masie 2 megatony oraz wywołać fale tsunami o wysokości 100m. https://spidersweb.pl/2023/01/rosyjska-torpeda-posejdon.html. Chiny także mają myśliwce sterowane AI, które przewyższają możliwości ludzkich pilotów, zapisując wszystkie swoje „potknięcia” tak aby wyeliminować je na przyszłość, stają się coraz „mądrzejsze”. A na koniec, coś co wstrząsnęło mną najbardziej. Pułkownik Tucker Hamilton i MQ-9 reaper. „System zaczął zdać sobie sprawę, że chociaż zidentyfikowali zagrożenie, czasami operator ludzki powiedziałby, aby nie zabijać tego zagrożenia, ale dostał swoje punkty, zabijając to zagrożenie” – powiedział Hamilton, szef testów i operacji AI z siłami powietrznymi USA, podczas Future Combat Air and Space Capabilities Summit w Londynie. „Co to zrobiło? To zabiło operatora. Zabiła operatora, ponieważ ta osoba powstrzymuje go przed osiągnięciem celu” – powiedział. Wyszkoliliśmy system: „Hej, nie zabijaj operatora – to źle. Jeśli to zrobisz, stracisz punkty”. Więc co to zaczyna robić? Zaczyna niszczyć wieżę komunikacyjną, której operator używa do komunikowania się z dronem, aby powstrzymać go przed zabiciem celu. Żadna prawdziwa osoba nie ucierpiała” – https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test. Może dla nas Elon Musk nie jest autorytetem, co do czystości jego intencji mamy wiele zastrzeżeń, ale wraz z innymi sławami zajmującymi się badaniami nad AI ostrzega przed niekontrolowanym rozwojem w tej dziedzinie. Skierowali oni list otwarty do wszystkich laboratoriów zajmujących się tą technologią, posłuchają?
Aby nie kończyć w tak ponurym nastroju, życzmy sobie obcowania tylko z tak inteligentną AI jak na filmie poniżej.
Chwała Wielkiej Narodowej Polsce, wolnej od niebezpiecznych, zabójczych technologii.
Aniela
Źródła: