Dodaj do ulubionych

Według sztucznej inteligencji...

02.03.21, 07:37
Wojciech Orliński

Według sztucznej inteligencji, jeśli Polak jedzie mercedesem, to prawdopodobnie go ukradł

Chatbot imieniem Tay miał uczyć się ludzkiej mowy przez rozmawianie z ludźmi. Po szesnastu godzinach obcowania ze ściekiem niemoderowanych wypowiedzi na Twitterze, Tay ogłosiła " "Hitler miał rację, nienawidzę Żydów"

Wokół internetowych molochów dzieje się teraz tyle, że większość mediów nie zauważa pewnej względnie kameralnej afery rozgrywającej się od kilku miesięcy w firmie Google. Ta mi się tymczasem wydaje ważniejsza, bo od niej zależy przyszłość nas wszystkich.

Na początku grudnia zeszłego roku z Google’a wyrzucono Timnit Gebru, z zespołu zajmującego się etyką sztucznej inteligencji. Wzbudziło to protesty w firmie i poza nią.

W wewnętrznym mailu do pracowników Sundar Pichai wyraził klasyczne nieprzeprosiny („non-apology”). Przyznał, że firma źle to rozegrała, ale nie obiecał żadnych konkretnych środków zaradczych, poza nieokreślonym „wyjaśnieniem sprawy”.

To tylko pogorszyło atmosferę. Zwolnienie Gebru przyśpieszyło trwające od pewnego czasu sekretne przymiarki do założenia w centrali Google’a pierwszego związku zawodowego, Alphabet Workers Union – oficjalnie zainaugurował działalność 4 stycznia 2021 roku.

Gdy piszę te słowa, konflikt narasta. Pracownicy Google’a dalej publicznie krytykują swojego pracodawcę. 19 lutego wyrzucono za to z kolei szefową zespołu etyki Margaret Mitchell.

O co ten spór? Dlaczego internetowy gigant decyduje się na tak szkodliwe wizerunkowo posunięcia?

Wszystko zaczęło się od publikacji, której Gebru była współautorką, pod niezbyt zachęcającym do czytania tytułem „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” (O zagrożeniu stochastycznymi papugami: czy modele językowe mogą być za duże?). Mimo egzotycznego tytułu zapewniam, że sprawa dotyczy wszystkich P.T. Czytelników.

Modele językowe (zwane przez fachowców NLP – „natural language processing”) to dziś podstawa prac nad sztuczną inteligencją. Dzięki ich stosowaniu ta dziedzina dokonała ogromnego postępu w ciągu ostatniej dekady.

W czasach mojej młodości dominowała tak zwana symboliczna sztuczna inteligencja, w której komputer uczono rozpoznawania ludzkich symboli. Badacze mieli nadzieję, że gdy już maszyna nauczy się ich wszystkich, będzie mogła z nami uciąć pogawędkę.

My jej napiszemy, że potrzebujemy „0,5 dm3 40% C2H2OH”, a ona przeanalizuje zawarte tu symbole, zaświeci się lampka i metaliczny głos przemówi z głośników: „Ach, pół litra pan chcesz? O tej porze najszybciej i najtaniej w melinie u Waldka spod szóstki”.

To podejście okazało się ślepą uliczką. NLP rozwiązuje ten problem z innej strony: komputer „karmimy” gigantycznymi porcjami danych pochodzącymi ze zwykłej ludzkiej komunikacji i uczymy go tylko jednego – samodzielnego szukania w nich prawidłowości.

Sztuczna inteligencja działająca na zasadzie NLP mogłaby sama domyślić się, że ludziom używającym takiego ciągu znaków chodzi o coś, co potocznie nazywają „półlitrem”. Co więcej, gdybyśmy dali jej dostęp do wysyłanych w naszej okolicy SMS-ów, za pomocą NLP maszyna mogłaby też odkryć, że od pewnego czasu lepszą od Waldka spod szóstki melinę ma Zdzichu spod piętnastki.

Oczywiście taka sztuczna inteligencja tak naprawdę niczego by nie rozumiała – nie wiedziałaby, o czym rozmawiają ludzie, co to jest melina, co to jest wódka, czemu ludzie ją piją.
Byłaby „stochastyczną papugą”, bezmyślnie powielającą ludzką mowę, kierując się tylko statystycznymi prawidłowościami (tzn. wytwarzając wypowiedzi „poprawne na 99%”).

Gdzie tu zagrożenie? Po pierwsze – twierdzą autorki publikacji – takie systemy są z natury niedemokratyczne. Tylko nieliczni gracze (Google, Facebook, Microsoft...) mają dostęp do tak wielkich danych i moc obliczeniową do skutecznego ich przetwarzania.

Po drugie, stochastyczne papugi nie mają sumienia. Nie dzielą ludzkich wypowiedzi na mądre i głupie, szlachetne i podłe. Jeśli będą analizować wypowiedzi ludzi niesprawiedliwie uprzedzonych do Waldka spod szóstki (bo to Żyd, bo to uchodźca, bo niehetero), stochastyczne papugi zaczną o nim mówić równie nienawistnie.

CDN...
Obserwuj wątek
    • diabollo Re: Według sztucznej inteligencji... 02.03.21, 07:38
      W 2016 roku Microsoft uruchomił na Twitterze chatbota imieniem Tay. Miała to być stochastyczna papuga, ucząca się ludzkiej mowy poprzez rozmawianie z ludźmi. Po 16 godzinach obcowania ze ściekiem niemoderowanych wypowiedzi na Twitterze Tay ogłosiła: „Hitler miał rację, nienawidzę Żydów” (a Microsoft ją wyłączył, bo stochastycznej papugi nie da się w inny sposób naprawić).

      Firma Google przoduje w tej technologii. Czy jej pracownikom wolno więc się krytycznie na jej temat wypowiadać?

      Sądząc po tych zwolnieniach, kierownictwo firmy uważa, że nie. Sądząc z kolei po nieustającym oburzeniu, pracownicy są innego zdania. Jeśli ktoś się specjalizuje w „etyce sztucznej inteligencji”, czy może na takie tematy milczeć?

      Amerykańskie sądy od kilku lat używają „stochastycznej papugi” w postaci oprogramowania COMPAS do oceniania prawdopodobieństwa recydywy. Od oceny tego programu zależą szanse na złagodzenie wyroku.
      COMPAS sugeruje surowsze traktowanie osób o ciemnej skórze – udowodniono to za pomocą wielu eksperymentów. Czy to rasizm, czy skutek tego, że w przypadku Afroamerykanów obiektywnie częściej dochodzi do recydywy?

      Nie wiadomo. Działanie algorytmu to tajemnica producenta – firmy Equivant. Pod wpływem nacisków działaczy praw obywatelskich w niektórych stanach (np. w Wisconsin) ogranicza się lub wręcz zakazuje stosowania tego programu.

      W czerwcu zeszłego roku w Detroit niejaki Robert Williams miał najazd policji do domu. Skuto go kajdankami na oczach dzieci i sąsiadów – bo policyjny algorytm wytypował go jako prawdopodobnego sprawcę napadu na sklep.

      Algorytm się mylił, Williams miał stuprocentowe alibi. Stochastyczna papuga wytypowała go na podstawie koloru skóry.

      Jak to może dotknąć czytelników tego tekstu? Bardzo prosto.
      Analizując dane z Europy Zachodniej, stochastyczna papuga dojdzie do wniosku, że jeśli Polak jedzie mercedesem, to pewnie go ukradł. Czy chcemy, żeby niemiecka policja używała takich programów podczas kontroli drogowej?

      Trzymam kciuki nie za zarząd Google’a, tylko za pracownice i pracowników – którzy wolą wylecieć z pracy, niż budować algorytmiczną dyktaturę.

      wyborcza.pl/duzyformat/7,127290,26828207,wedlug-sztucznej-inteligencji-jesli-polak-jedzie-mercedesem.html
      • oby.watel Re: Według sztucznej inteligencji... 02.03.21, 11:13
        I właśnie dlatego prywatna firma powinna mieć prawo cenzurowania i blokowania użytkowników. Nikt przecież nie sprawdzi, bo jak? to dane poufne, czy setki Nowaków, Kowalskich i innych to prawdziwi ludzie czy stochastyczne papugi głoszące swoje poglądy i wychwalające zalety tego czy innego kandydata. Wkrótce to wielkie koncerny będą decydować kto wygra wybory chociażby dlatego, że ludźmi dużo łatwiej niż stochastyczną papugą manipulować. Tym bardziej, że wielu żyje w swojej wyimaginowanym i daje wiarę tylko temu, co potwierdza stawiane przez nich tezy, a rzeczywistość która im przeczy uważają za kłamstwo.
      • grzespelc Re: Według sztucznej inteligencji... 02.03.21, 12:40
        "W czerwcu zeszłego roku w Detroit niejaki Robert Williams miał najazd policji do domu. Skuto go kajdankami na oczach dzieci i sąsiadów – bo policyjny algorytm wytypował go jako prawdopodobnego sprawcę napadu na sklep."

        Cały czas mówię: żadna sztuczna inteligencja nie będzie mądrzejsza, niż jej twórcy. Jaki policjant, taki e-policjant.
        A przecież bezpodstawne najazdy na mieszkania czarnych to tam sport narodowy...
        • oby.watel Re: Według sztucznej inteligencji... 02.03.21, 14:36
          grzespelc napisał:

          > Cały czas mówię: żadna sztuczna inteligencja nie będzie mądrzejsza, niż jej twó
          > rcy. Jaki policjant, taki e-policjant.
          > A przecież bezpodstawne najazdy na mieszkania czarnych to tam sport narodowy...

          Mądrzejsza może i nie będzie, ale nie będzie się bała wchodzić w polemikę, nie przyjdzie jej do... algorytmu, żeby blokować użytkowników tylko dlatego, że nie podzielają jedynie słusznych poglądów człowieka, który ich nawet bronić nie potrafi. Poza tym sztuczna inteligencja jest tańsza i nieprzekupna, nie poświadczy nieprawdy za określona kwotę.

Nie pamiętasz hasła

lub ?

 

Nie masz jeszcze konta? Zarejestruj się

Nakarm Pajacyka