Kontrowersje sztucznej inteligencji
Opublikowany: 2017-09-27Kontrowersje wokół sztucznej inteligencji nie są nowe — dla piżma lub całego społeczeństwa.
Jako pionier technologii, Elon Musk nie jest dla nikogo pomysłem Luddite. Kiedy więc Musk napisał na Twitterze, że rywalizacja sztucznej inteligencji z Rosją i Chinami będzie „najbardziej prawdopodobną przyczyną” III wojny światowej, ludzie bardzo się zdenerwowali. Jednak kontrowersje dotyczące sztucznej inteligencji nie są nowe — dla Muska lub całego społeczeństwa.
Sztuczna inteligencja: przerażająca od samego początku
Martwiliśmy się o niebezpieczeństwa związane z tworzeniem sztucznej istoty na długo przed tym, zanim sztuczna inteligencja stała się nauką. Termin „robot” pochodzi od sztuki napisanej w 1920 roku przez Karela Capka zatytułowanej RUR — Universal Robots Rossum (po czesku Rossumovi Univerzalni Roboti). Spektakl rozpoczyna się w fabryce produkującej syntetycznych ludzi, którzy mają służyć jako robotnicy. Roboty są początkowo tworzone bez ludzkich emocji, ale w miarę rozwoju coraz większej liczby robotów ludzkich robią to, co… cóż, co ogólnie robi armia czujących robotów. Żegnaj, ludzkość.
To pomysł, który widzieliśmy tak wiele razy, że stał się banałem. Historie wahają się od szalonych AI, które zagrażają i zabijają ludzi, których mają chronić (myśl HAL w 2001 r.) Do totalnej wojny, aby zakończyć ludzkość (SKYNET w serii Terminator), ale kiedy skomputeryzowane istoty stają się świadome, historia zwykle się kończy źle dla zaangażowanych ludzi.
Ale to nie tylko trop science fiction — niektórzy współcześni naukowcy mają podobne obawy dotyczące sztucznej inteligencji. Stephen Hawking powiedział, że „rozwój potężnej sztucznej inteligencji będzie albo najlepszą, albo najgorszą rzeczą, jaka kiedykolwiek przydarzy się ludzkości. Jeszcze nie wiemy, które”.

Czy roboty marzą o elektrycznej dominacji nad światem?
Na krańcu spektrum Hawking nie owija w bawełnę. „Rozwój pełnej sztucznej inteligencji może oznaczać koniec rasy ludzkiej” – mówi. Hawking zajmuje się ideą czującej sztucznej inteligencji. Ten rodzaj inteligencji może „przeprojektować się w coraz szybszym tempie”, z czym ludzie nie mogliby konkurować, ponieważ jesteśmy „ograniczeni przez powolną ewolucję biologiczną”.
Obawy Hawkinga, że rasa ludzka została wyparta, cieszą się dużą popularnością, ponieważ wydają się tak fantastyczne, ale podnosi inny problem, który jest znacznie bardziej bezpośredni: potencjał sztucznej inteligencji nadużywanej przez ludzkich kontrolerów.
„Sukces w tworzeniu AI będzie największym wydarzeniem w historii naszej cywilizacji. Ale może być też ostatni, chyba że nauczymy się unikać ryzyka. Oprócz korzyści, sztuczna inteligencja przyniesie niebezpieczeństwa, takie jak potężna broń autonomiczna lub nowe sposoby uciskania wielu przez nielicznych”.
W tych kwestiach dołączają do niego najwybitniejsi liderzy myśli zarówno w Dolinie Krzemowej, jak i poza nią. W 2015 roku Hawking dołączył do grona światowej sławy badaczy robotyki i kognitywisty, pionierów z Doliny Krzemowej i innych liderów myśli, aby wezwać do zakazu broni autonomicznej – sztucznie inteligentnych maszyn wojennych, które „wybierają i atakują cele bez interwencji człowieka”. List opisywał broń autonomiczną jako „trzecią rewolucję w wojnie, po prochu i broni nuklearnej” i opisywał ogromny potencjał dewastacji w przypadku nowego wyścigu zbrojeń:

Sztuczna inteligencja już zrewolucjonizowała działania wojenne.
„Staną się wszechobecne i tanie dla wszystkich znaczących potęg wojskowych do masowej produkcji. To tylko kwestia czasu, kiedy pojawią się na czarnym rynku i w rękach terrorystów, dyktatorów chcących lepiej kontrolować swoją ludność, watażków pragnących dokonać czystki etnicznej itp. Broń autonomiczna jest idealna do zadań takich jak zabójstwa, destabilizacja narody, ujarzmiając populacje i selektywnie zabijając określoną grupę etniczną”.
Elon Musk jest prawdopodobnie najbardziej zaangażowany w głoszenie niebezpieczeństw sztucznej inteligencji. Publicznie kłócił się z przyjaciółmi, takimi jak dyrektor generalny Alphabet, Larry Page, sugerując, że mogą nieświadomie siać ziarno zniszczenia ludzkości. Mówił o wyścigach zbrojeń AI i porównał sztuczną inteligencję do „przywoływania demona”. Z tego powodu założył OpenAI, organizację non-profit, która ma na zawsze usunąć sztuczną inteligencję z ziemi.
Polecany dla Ciebie:
Nie, przepraszam. Chodziło nam o organizację non-profit zajmującą się badaniem i tworzeniem „bezpiecznej sztucznej inteligencji ogólnej”. To nie brzmi jak coś, co zrobiłby przeciwnik ze sztuczną inteligencją, prawda? Więc co się dzieje?

Obecny (i nieco mniej przerażający) stan sztucznej inteligencji
Sztuczna inteligencja już tu jest — minęło już sporo czasu. Kiedy Facebook automatycznie zasugeruje Twoje imię na zdjęciu lub aplikacja w telefonie podpowiada następne słowo, które napiszesz, aby zaoszczędzić trochę czasu na pisanie? To sztuczna inteligencja. Stephen Hawking również wykorzystuje sztuczną inteligencję. Choroba stwardnienia zanikowego bocznego (ALS) spowodowała, że został prawie całkowicie sparaliżowany, więc do wybierania słów musi używać niewielkich ruchów policzka. Ma urządzenie, które uczy się wzorców mowy, pomagając mu łatwiej i szybciej wybrać właściwe słowo.
Sztuczna inteligencja też szybko się rozwija. Cyfrowi asystenci, tacy jak Siri firmy Apple i Asystent Google, coraz lepiej pomagają Ci w rutynowych zadaniach, od planowania, przez pranie za pomocą automatycznych urządzeń, po udostępnianie lokalizacji, gdy wychodzisz na spotkanie z przyjaciółmi. Sztuczna inteligencja już teraz pomaga wykrywać raka płuc, zapobiegać wypadkom samochodowym, a nawet diagnozować rzadkie choroby, które przeszkadzają lekarzom.

Sztuczna inteligencja już pomaga w wykrywaniu raka i innych chorób.
Jednak sztuczną inteligencję można wykorzystać również w niepokojących technologiach. Rozpoznawanie twarzy w policyjnych kamerach ciała może pomóc w rozpoznaniu niebezpiecznego podejrzanego, ale może być również wykorzystane do śledzenia niewinnych obywateli. Automatyczna jazda będzie nadal zwiększać bezpieczeństwo i wydajność transportu, ale może być również wykorzystywana do zasilania autonomicznych dronów w celach destrukcyjnych lub może zostać zhakowana w celu porwania samolotu. A potem jest przerażający bunt robotów.
Pytanie nie brzmi, czy sztuczna inteligencja powinna istnieć, czy nie – już istnieje. I nie dyskutujemy, czy sztuczna inteligencja jest pomocna, czy destrukcyjna, ponieważ oczywiście może to być jedno lub drugie. Kwestie, które mają znaczenie, to jaki rodzaj sztucznej inteligencji powinniśmy mieć, w jaki sposób będzie ona używana i kto będzie ją kontrolował.
Pytania dotyczące przyszłości AI
1. Jaki rodzaj? Sztuczna inteligencja ogólna a sztuczna inteligencja
Te scenariusze buntu robotów zwykle dotyczą sztucznej ogólnej inteligencji (AGI). Sztuczna inteligencja odmiany ogrodowej jest przeznaczona do rozwiązywania konkretnych problemów, takich jak prowadzenie samochodu lub wykrywanie raka. Sztuczna inteligencja ogólna jest większa — odnosi się do sztucznej inteligencji, która jest zdolna do rozumowania i myślenia jak osoba. AGI niekoniecznie musiałby być świadomy, ale byłby w stanie robić rzeczy tak, jak robiłby to człowiek. Może to oznaczać używanie języka na tyle dobrze, aby przekonać mówiącego, że jest człowiekiem (Test Turinga), pójście do przeciętnego domu i zrobienie kawy (Test Kawy — zaproponowany przez współzałożyciela Apple i „przeciwnika AI” Steve'a Wozniaka) lub nawet zapisanie się i zaliczenie klasy (test The Robot College Student).
Ludzie tacy jak Stephen Hawking i Elon Musk martwią się, że sztuczna ogólna inteligencja może zastąpić nas innym świadomym gatunkiem. Ale jest to również typ, który bada instytut OpenAI, ponieważ – pomimo całej sensacyjnej relacji – zatrzymanie sztucznej inteligencji nie jest tak naprawdę celem Muska.

2. Kto kontroluje sztuczną inteligencję?
Sztuczna inteligencja to potężna technologia, która może sprawić, że ludzie będą znacznie wydajniejsi w szerokim zakresie zadań. Jedną z obaw grup takich jak OpenAI jest to, że ta władza zostanie skoncentrowana w zbyt niewielu rękach lub w niewłaściwych rękach, umożliwiając totalitarnym rządom, wrogim korporacjom, terrorystom lub innym złym podmiotom robienie różnych destrukcyjnych rzeczy, włącznie z rozpoczęciem III wojny światowej. Podejście open source wyrównuje sytuację, upewniając się, że żadna grupa nie jest w stanie zmonopolizować tej technologii.
Innym problemem, na który open source nie odpowiada, są zakłócenia gospodarcze. Wraz z rozwojem technologii i wzrostem wydajności, zmniejsza się ilość potrzebnej siły roboczej, co oznacza mniejszą liczbę miejsc pracy. Ponieważ roboty i sztuczna inteligencja stają się coraz potężniejsze, proces ten nabierze tempa. Co się dzieje z tymi wszystkimi bezrobotnymi? Jak upewnić się, że mają rozsądny standard życia i miejsce w społeczeństwie? A jaki powinien być ostateczny cel? Ponieważ sztuczna inteligencja zajmuje się coraz większą ilością pracy, czy możemy i powinniśmy utrzymać model ekonomiczny oparty na konkurencji, czy też musimy ewoluować do modelu bardziej opartego na współpracy?
3. Jak należy używać sztucznej inteligencji?
To najbardziej oczywiste pytanie, ale najtrudniejsze do udzielenia odpowiedzi, ponieważ wymaga od nas uznania czegoś, do czego nienawidzimy przyznać: technologia nie jest moralnie neutralna — rzeczy, które projektujemy i budujemy, mają konsekwencje. Czy chcemy żyć w świecie z autonomicznymi robotami-zabójcami? Jeśli nie, jak możemy powstrzymać ich tworzenie? Czy technologie rozpoznawania twarzy i śledzenia ludzi są niebezpieczne dla naszej wolności? Jeśli tak, to jakie ograniczenia musimy na nie nałożyć i jak możemy je egzekwować?
Jak możemy zapewnić, że sztuczna inteligencja prowadzi do lepszego świata?
Musimy porozmawiać o sztucznej inteligencji
Sztuczna inteligencja już tu jest i będzie się rozwijać. Możemy nigdy nie dysponować pełną sztuczną inteligencją ogólną, ale można się założyć, że komputery będą znacznie, znacznie potężniejsze w wykonywaniu szerokiego zakresu zadań. Będzie to oznaczać obiecujące nowe technologie, takie jak badania nad rakiem i lepsze zarządzanie, ale będzie też prowadzić do niebezpiecznych nowych zagrożeń. To, czy ta przyszłość to taka, w której żyjemy dłużej, szczęśliwsi, bardziej satysfakcjonujące życie, czy coś znacznie mroczniejszego, zależy od decyzji, które podejmujemy teraz.
[Ten post pojawił się po raz pierwszy na Proto.io i został powielony za zgodą.]






