diabollo
02.03.21, 07:37
Wojciech Orliński
Według sztucznej inteligencji, jeśli Polak jedzie mercedesem, to prawdopodobnie go ukradł
Chatbot imieniem Tay miał uczyć się ludzkiej mowy przez rozmawianie z ludźmi. Po szesnastu godzinach obcowania ze ściekiem niemoderowanych wypowiedzi na Twitterze, Tay ogłosiła " "Hitler miał rację, nienawidzę Żydów"
Wokół internetowych molochów dzieje się teraz tyle, że większość mediów nie zauważa pewnej względnie kameralnej afery rozgrywającej się od kilku miesięcy w firmie Google. Ta mi się tymczasem wydaje ważniejsza, bo od niej zależy przyszłość nas wszystkich.
Na początku grudnia zeszłego roku z Google’a wyrzucono Timnit Gebru, z zespołu zajmującego się etyką sztucznej inteligencji. Wzbudziło to protesty w firmie i poza nią.
W wewnętrznym mailu do pracowników Sundar Pichai wyraził klasyczne nieprzeprosiny („non-apology”). Przyznał, że firma źle to rozegrała, ale nie obiecał żadnych konkretnych środków zaradczych, poza nieokreślonym „wyjaśnieniem sprawy”.
To tylko pogorszyło atmosferę. Zwolnienie Gebru przyśpieszyło trwające od pewnego czasu sekretne przymiarki do założenia w centrali Google’a pierwszego związku zawodowego, Alphabet Workers Union – oficjalnie zainaugurował działalność 4 stycznia 2021 roku.
Gdy piszę te słowa, konflikt narasta. Pracownicy Google’a dalej publicznie krytykują swojego pracodawcę. 19 lutego wyrzucono za to z kolei szefową zespołu etyki Margaret Mitchell.
O co ten spór? Dlaczego internetowy gigant decyduje się na tak szkodliwe wizerunkowo posunięcia?
Wszystko zaczęło się od publikacji, której Gebru była współautorką, pod niezbyt zachęcającym do czytania tytułem „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” (O zagrożeniu stochastycznymi papugami: czy modele językowe mogą być za duże?). Mimo egzotycznego tytułu zapewniam, że sprawa dotyczy wszystkich P.T. Czytelników.
Modele językowe (zwane przez fachowców NLP – „natural language processing”) to dziś podstawa prac nad sztuczną inteligencją. Dzięki ich stosowaniu ta dziedzina dokonała ogromnego postępu w ciągu ostatniej dekady.
W czasach mojej młodości dominowała tak zwana symboliczna sztuczna inteligencja, w której komputer uczono rozpoznawania ludzkich symboli. Badacze mieli nadzieję, że gdy już maszyna nauczy się ich wszystkich, będzie mogła z nami uciąć pogawędkę.
My jej napiszemy, że potrzebujemy „0,5 dm3 40% C2H2OH”, a ona przeanalizuje zawarte tu symbole, zaświeci się lampka i metaliczny głos przemówi z głośników: „Ach, pół litra pan chcesz? O tej porze najszybciej i najtaniej w melinie u Waldka spod szóstki”.
To podejście okazało się ślepą uliczką. NLP rozwiązuje ten problem z innej strony: komputer „karmimy” gigantycznymi porcjami danych pochodzącymi ze zwykłej ludzkiej komunikacji i uczymy go tylko jednego – samodzielnego szukania w nich prawidłowości.
Sztuczna inteligencja działająca na zasadzie NLP mogłaby sama domyślić się, że ludziom używającym takiego ciągu znaków chodzi o coś, co potocznie nazywają „półlitrem”. Co więcej, gdybyśmy dali jej dostęp do wysyłanych w naszej okolicy SMS-ów, za pomocą NLP maszyna mogłaby też odkryć, że od pewnego czasu lepszą od Waldka spod szóstki melinę ma Zdzichu spod piętnastki.
Oczywiście taka sztuczna inteligencja tak naprawdę niczego by nie rozumiała – nie wiedziałaby, o czym rozmawiają ludzie, co to jest melina, co to jest wódka, czemu ludzie ją piją.
Byłaby „stochastyczną papugą”, bezmyślnie powielającą ludzką mowę, kierując się tylko statystycznymi prawidłowościami (tzn. wytwarzając wypowiedzi „poprawne na 99%”).
Gdzie tu zagrożenie? Po pierwsze – twierdzą autorki publikacji – takie systemy są z natury niedemokratyczne. Tylko nieliczni gracze (Google, Facebook, Microsoft...) mają dostęp do tak wielkich danych i moc obliczeniową do skutecznego ich przetwarzania.
Po drugie, stochastyczne papugi nie mają sumienia. Nie dzielą ludzkich wypowiedzi na mądre i głupie, szlachetne i podłe. Jeśli będą analizować wypowiedzi ludzi niesprawiedliwie uprzedzonych do Waldka spod szóstki (bo to Żyd, bo to uchodźca, bo niehetero), stochastyczne papugi zaczną o nim mówić równie nienawistnie.
CDN...