Międzynarodowe działania ukierunkowane w stronę rozwoju sztucznej inteligencji to nie tylko domena globalnych korporacji. Technologie oparte o SI znajdują też zastosowanie w sektorze bezpieczeństwa, z tego powodu są one uwzględniane w transatlantyckich działania w ramach NATO.

W lutym 2019 roku prezydent Trump podpisał zarządzenie wykonawcze 13859 w sprawie podtrzymania amerykańskiego przywództwa w obszarze sztucznej inteligencji. Inicjatywa ukierunkowuje działania w kluczowych obszarach, m.in. inwestycji w badania i rozwój, wytycznych i regulacji, budowy kompetencji i zaangażowania we współpracę międzynarodową w celu wspierania amerykańskich badań i innowacji w dziedzinie sztucznej inteligencji. Pod koniec 2020 roku na zorganizowanej w ramach inicjatywy Europa Przyszłości (Future Europe Initiative) zastępca sekretarza generalnego NATO Mircea Geoană słusznie zauważył, że „istnieją znaczne korzyści z utworzenia transatlantyckiej społeczności cyfrowej współpracującej w zakresie sztucznej inteligencji (SI) oraz nowych i przełomowych technologii, w których NATO może odgrywać kluczową rolę ułatwiając innowacje”. Trudno się z tymi słowami nie zgodzić. O ile w Europie państwa członkowskie mogą liczyć na pomoc organów UE, o tyle w przypadku współpracy transatlantyckiej NATO wydaje się naturalnym liderem w dziedzinie, która już dziś wpływa na bezpieczeństwo na całym świecie. Wiodąca rola USA w ramach NATO może też znacznie pomóc w przypadku ujednolicania międzynarodowych aktów prawnych dotyczących SI. W Stanach Zjednoczonych prace nad tym obszarem są znacznie bardziej zaawansowane niż w innych krajach. Sama fraza „Sztuczna Inteligencja” pojawia się na dzień dzisiejszy w 117 ustawach.

Rozważając temat bezpieczeństwa SI, w pierwszym odruchu najłatwiej jest pomyśleć o zagrożeniach związanych ze złowrogimi maszynami, które sterowane przez wymykającą się spod kontroli sztuczną inteligencję zagrażają ludzkości. Nic bardziej mylnego. Obecnym zagrożeniom daleko od tych rodem z popularnych filmów science-fiction. Co nie oznacza, że należy je ignorować. Już w 2016 roku podczas konferencji „Etyka Sztucznej Inteligencji” podniesiono problematykę systemów LAWS (Lethal Autonomous Weapons Systems) – śmiercionośnej broni autonomicznej. Autor prezentacji zwrócił uwagę, że w niektórych obszarach zapalnych, takich jak chociażby strefa zdemilitaryzowana między Koreą Północną a Koreą Południową, tego typu półautonomiczne systemy uzbrojenia są już rozmieszczone. Warto wspomnieć, że pierwsze prototypowe wieże strażnicze Samsung SGR-A1, które potrafią namierzać cel bez interwencji człowieka, wyprodukowano 15 lat temu. Mimo upływu czasu, w dalszym ciągu przenoszenie na maszynę problemu moralnego, polegającego na pociągnięciu za spust karabinu, ma swoich zwolenników, jak i przeciwników.

Utrata życia w wyniku działania SI to oczywiście największe z zagrożeń dla jednostki. Niestety, istnieje też cała gama innych. Najczęściej dyskutowanym zagrożeniem jest perspektywa utraty pracy na rzecz robotów wyposażonych w SI. Zacieranie się granic między światem cyfrowym, fizycznym i biologicznym realizuje się już dzisiaj, roboty i cyfrowe programy przejmują od nas obowiązki, które można zautomatyzować przy użyciu dostępnych rozwiązań opartych o SI. McKinsey Global Institute opublikował badania, według których do 2030 roku 375 mln osób będzie musiało zmienić swoją dotychczasową pracę z powodu postępującej automatyzacji. Łatwo policzyć, że stanowi to niespełna 14% całego globalnego rynku pracy. Raport Oxford Economics „How robots change the world” mówi o 20 mln robotników, którzy zostaną całkowicie zastąpieni przez roboty do 2030 roku. Nic więc dziwnego, że obywatele obawiają się, że mogą zostać pozbawieni miejsc pracy. Nie do każdego przemawia fakt, że wraz z rozwojem SI w całkiem naturalny sposób zmieni się rynek. Tak jak w przypadku każdej z dotychczasowych rewolucji przemysłowych tradycyjne zawody ulegną zmianom, część z obecnych przestanie być potrzebna, a pojawią się nowe.

Kolejne z potencjalnych zagrożeń wiąże się z przetwarzaniem naszych danych. Po pierwsze większość modeli sztucznej inteligencji potrzebuje prawdziwych danych, żeby nauczyć się poprawnego działania. Algorytmy dobierające dla nas propozycję filmów do obejrzenia, niekoniecznie muszą działać w oparciu o listę ostatnio oglądanych przez nas produkcji. SI zaskakująco dobrze dobierze interesujący dla nas materiał analizując naszą aktywność w mediach społecznościowych, geolokację i preferencje związane z naszymi zakupami online. Wykorzystywanie naszych danych, nawet w formie zanonimizowanej, stanowi problem dla części społeczeństwa. Innym problemem, zdecydowanie dalej idącym w skutkach, jest maszynowe przetwarzanie danych prywatnych i podejmowanie przez algorytmy decyzji mających wpływ na życie obywateli. Modele SI, które uczono przy użyciu nieodpowiedniego zestawu danych wejściowych, mogą stanowić dla osób poddawanych analizie spore zagrożenie. Znane są przypadki testowo używanej SI, mającej na celu wykrycie potencjalnych przestępców poprzez analizę konturów i mimiki twarzy, dającej bardzo wypaczone wyniki. Liczne modele predykcyjne, mające wspierać działania aparatu sprawiedliwości przy wydawaniu decyzji o wyrokach i zwolnieniach za kaucją, konsekwentnie przynoszą gorsze wyniki dla czarnoskórych mężczyzn. Dzieje się tak z powodu zestawu danych „startowych”. Innym przykładem są ostatnie badania przeprowadzone na Uniwersytecie Kalifornijskim w Berkeley, które wykazały że system pożyczek hipotecznych oparty na sztucznej inteligencji oferował czarnym i latynoskim pożyczkobiorcom mniej korzystne marże kredytu niż osobom białym. System rekrutacji Amazona, poszukując najlepszych pracowników na podstawie zaprogramowanych danych, wybierał głównie mężczyzn. Powód był prosty, algorytm bazował na danych o wydajności pracowników, które dotyczyły wyłącznie mężczyzn zatrudnionych w firmie. Przykłady można mnożyć, wszystkie jednak łączy jeden fakt: złe dane wejściowe nauczą SI podejmować decyzje, które niekoniecznie będą wolne od błędów.

Aby SI rozwijała się w bezpieczny sposób, kluczowe wydają się dwa czynniki. Pierwszy z nich to finansowanie. Pod tym względem kraje Unii Europejskiej wciąż pozostają w tyle względem Stanów Zjednoczonych, powoli doganiając Chiny. W 2016 roku na rozwój sztucznej inteligencji w UE przeznaczono 3,2 mld EUR, podczas gdy w Ameryce Północnej około 12,1 mld EUR, a w Państwie Środka około 6 mld EUR. W 2019 roku pierwszy raz w historii Stanów Zjednoczonych, rozwój sztucznej inteligencji oraz autonomicznych systemów został uznany jako priorytet badawczo-rozwojowy i osobno wyszczególniony w budżecie administracji. Firma analityczna International Data Corp. przewiduje, że globalne wydatki na sztuczną inteligencję wzrosną ponad dwukrotnie w ciągu najbliższych czterech lat, z 41 miliarda EUR w 2020 roku do ponad 90 miliardów EUR w 2024 roku.

Drugi czynnik to odpowiednie regulacje, które będą zarówno gwarantem równomiernego rozwoju technologicznego państw sojuszniczych, ale też pozwolą na antropocentryczne ukierunkowanie algorytmów, chroniąc nasze prawa i wartości. W USA pierwsze ramy prawne w obszarze SI wprowadzono już w 2011 roku – w stanie Nevada przyjęto przepisy dotyczące testowania pojazdów autonomicznych. Innych prekursorów prawnych wymogów można szukać też w zasadach przewodnich, zatwierdzonych w grudniu 2019 przez grupę ekspertów rządowych ds. nowych technologii pracujących pod auspicjami Organizacji Narodów Zjednoczonych,. Opisujący 11 wiodących zasad dokument dotyczy Autonomicznych Śmiercionośnych Systemów Uzbrojenia (LAWS) jednak precyzuje je na tyle dokładnie, że można je rozszerzyć, przenosząc na obszar cywilnych zastosowań SI. Innym z dostępnych wytycznych są sformułowane przez Komisje Europejską najważniejsze zasady, których zadaniem jest zapewnienie bezpiecznej SI. Wymogi stawiane w rezolucjach uwzględniają m.in.: przewodnią i nadzorczą rolę człowieka, techniczną solidność i bezpieczeństwo, ochronę prywatności i zarządzanie danymi, różnorodność, niedyskryminację i sprawiedliwość, odpowiedzialność. Pochwalić należy też firmy technologiczne, które nie czekając na instytucje państwowe, same znacznie wcześniej formułowały swoje dobre praktyki. Przykładem mogą być chociażby „Asilomar AI Principles” opublikowane w 2017, „Trusted AI” firmy IBM, czy „Responsible AI Practices” firmy Google. Na chwilę obecną Polskie prawodawstwo nie traktuje odpowiedzialności za błędy sztucznej inteligencji w żaden szczególny sposób. Zmieni się to w niedalekiej przyszłości, ponieważ trwają prace nad dostosowaniem prawa RP do unijnej rezolucji na ten temat, uchwalonej w październiku 2020 roku. Kooperacja transatlantycka w tej kwestii ma ogromne znacznie, gdyż prawidłowo przygotowane i wdrożone regulacje mają szansę pozytywnie wpłynąć na działanie wspólnego rynku oraz na bezpieczeństwo systemów opartych o SI.

Zaawansowane algorytmy SI pojawiają się na naszych oczach. W najbliższych latach zmienią w znacznym stopniu życie większości ludzi na świecie. Należy się na te zmiany przygotować i zrobić to z możliwie jak największą odpowiedzialnością. Kooperacja na szczeblu państw i organizacji takich jak NATO wydaje się być jednym z filarów nadchodzącej transformacji.

*****

Tekst pierwotnie ukazał się na łamach „Dziennika Związkowego” oraz „Polish Express”.

Autor: Wiktor Sędkowski
Wiktor Sędkowski ukończył teleinformatykę na Politechnice Wrocławskiej, specjalizując się w dziedzinie bezpieczeństwa cybernetycznego. Jest ekspertem od zagrożeń cyfrowych. Posiadacz certyfikatu CISSP, OSCP i MCTS, pracował jako inżynier i solution architect dla wiodących firm informatycznych.

 

Artykuł pierwotnie ukazał się na stronie think tanku Warsaw Institute.
[CZYTAJ TEN ARTYKUŁ]