Współczesność chce za wszelką cenę stworzyć tzw. Inteligentne maszyny. Mają one pomóc ludzkości w codziennych sprawach. Wielu z wielkim entuzjazmem wyczekuje chwili, gdy pojawi się pierwsza na świecie w pełni inteligentna maszyna. Ale jest wielu takich, którzy krytycznie i z pesymizmem patrzą na rozwój sztucznej inteligencji.

Na łamach „The Independent” Hawking wraz z innymi wybitnymi naukowcami pisze:

„Spoglądając w przyszłość, nie dostrzegam fundamentalnych ograniczeń tego, co moglibyśmy osiągnąć. Nie ma prawa fizyki ograniczającego zorganizowanie cząstek w sposób, który umożliwiłby wykonywanie obliczeń o wiele bardziej skomplikowanych od tych, które wykonuje ludzki mózg. Wybuchowe przejście jest możliwe, choć ta zmiana może rozegrać się tak jak w filmie. Choćby tak, jak przedstawił to Irving Good w 1965 - maszyny z superludzką inteligencją mogące wciąż ulepszać swoje projekty”.

Hawking zadaje pytanie: Czy sztuczna inteligencja da się kontrolować? „ Można sobie wyobrazić technologię, która przechytrzyłaby rynki finansowe, przerosłaby możliwościami ludzkich wynalazców, wywiodłaby w pole światowych przywódców i stworzyłaby broń, której nie będziemy nawet w stanie zrozumieć. Podczas gdy krótkoterminowy rozwój sztucznej inteligencji zależy od tego, kto ją kontroluje, na dłuższą metę chodzi o to, czy sztuczną inteligencję w ogóle da się kontrolować. Zatem w obliczu ewentualnych, acz nieprzewidywalnych możliwości i zagrożeń eksperci robią, co mogą, by osiągnąć najlepsze rezultaty, prawda? Błąd. Jeśli przeważająca nad nami obca cywilizacja prześle nam wiadomość: "Przybędziemy za kilka dekad", odpowiemy: "Dobrze, dajcie znać, kiedy dotrzecie, zostawimy wam otwarte drzwi"? Prawdopodobnie nie, ale w mniejszym lub większym stopniu właśnie tak postępujemy ze sztuczną inteligencją”.

Na razie nie widać na horyzoncie żadnej sztucznej inteligencji. Czytając książki i wypowiedzi wybitnych naukowców na temat zagrożeń płynących z rozwoju tej dziedziny, może to i lepiej. 

Philo/nauka.wp.pl