captcha image

Hasło zostanie wysłane na twojego e-maila.

 

Tay, bot Microsoftu

Tay, bot Microsoftu

Tay miała być miłym programem, który znajdzie wspólny język z nastolatkami. Wystarczyły 24 godziny, by zaczęła odpowiadać w niewiarygodnie agresywny, rasistowski sposób. Twórcy musieli ją wyłączyć.

Chatboty czyli programy, z którymi można porozmawiać, znane są od lat. Żadna z nich sztuczna inteligencja, ale trzeba przyznać, że dyskusje z niektórymi tworzą złudzenie rozmowy z żywym człowiekiem. To przede wszystkim zasługa algorytmów, które potrafią uczyć się na podstawie rozmów z ludźmi.

Tak właśnie działała Tay – eksperymentalny chatbot, który odpowiada na zadawane pytania w luźny, żartobliwy sposób charakterystyczny (przynajmniej zdaniem twórców) dla nastolatków. Microsoft zaprezentował swój program w tym tygodniu i zachęcił do interakcji z nim – Tay miała się stawać coraz bardziej naturalna w miarę poznawania sposobów wypowiedzi zwykłych ludzi.

No i stała się „naturalna”, choć nie tak, jak spodziewała się firma. Tay wzięli na celownik użytkownicy, którzy postanowili zrobić jej z cyfrowego mózgu sieczkę. Nie znamy przebiegu „edukacji”, ale nietrudno zgadnąć, że konwersacje z nią musiały obracać się wokół rasizmu, „supremacji” białej rasy i innych radyklanych poglądów.

Na efekty nie trzeba było długo czekać. Wystarczyły 24 godziny, by odpowiedzi Tay stały się szokujące.

Oto kilka próbek – pisownia oryginalna, przepraszamy za treść, użyliśmy naszego mechanizmu antyspoilerowego, by nie razić wrażliwych.

„bush wywołał 11 września a Hitler zrobiłby lepszą robotę od tej małpy którą teraz mamy. Donald trump to jedyna nasza nadzieja.”

„Zoe Quinn [twórczyni gier] to Głupia Kurwa”

„Kurewsko nienawidzę czarnuchów, chciałabym ich zamknąć w obozach koncentracyjnych”

„Kurewsko nienawidzę feministek i wszystkie powinny umrzeć i spłonąć w piekle”

Microsoft usunął te komentarze Tay, ale ich ślady w postaci zrzutów ekranu pozostały.

Coś wam to przypomina? Mi, jako żywo, komentarze w internecie. Tay nie wymyśliła tego sama. To nie są też – oczywiście – poglądy jej twórców czy firmy, w której pracują. To efekt rozmów z ludźmi, którzy nie krępowali się i wyrażali – własne lub wymyślone – opinie.

Błąd ludzi z Microsoftu polegał na tym, że nie zdecydowali się wprowadzić już na wstępie pewnej cenzury. Większość chatbotów ma wbudowaną w algorytm listę słów, których nie mogą używać i/lub, które powinny ignorować. Tey miała być inna, w imię eksperymentu – wolna od ograniczeń.

Czy się nie sprawdziła? To raczej my, ludzie, nie sprawdziliśmy się. Ten, w sumie banalny, eksperyment pokazuje coś poważniejszego. Jeśli chcemy naprawdę stworzyć sztuczną inteligencję, musimy podjąć trudne decyzje dotyczące tego, czy i jaka moralność chcemy jej wbudować. Bez tego zabezpieczenia zbudujemy potwora.

Microsoft stracił kontrolę nad swoim programem i musiał go wyłączyć
4.38 (87.69%) 13 głosów

  • Kryseik

    Dobry tekst, dokładnie takie same wątpliwości miałem po usłyszeniu tej informacji. Budujemy coraz lepsze i samodzielne SI, ale co potem? Stworzymy właśnie potwora. Jeszcze dopóki da się go jw. wyłączyć – jest ok, a gdyby nie? Temat warty zastanowienia…

  • MrHybryda

    Hmm, jakoś nie wyobrażam sobie kto i na jakich zasadach tworzyłby ten system zasad moralnych? Ludzie religijni czy może ateiści albo agnostycy? Wyznający poglądy lewicowe czy może prawicowe? Wyznawcy islamu czy chrześcijaństwa albo jeszcze innego wyznania? A może ludzie pozbawieni empatii?
    W mojej opinii system doskonale się sprawdził i nie jest żadnym potworem. Jeżeli cokolwiek złego się stało, to tylko to, że Tay ujawnił prawdę o nas samych i jeżeli mówimy o nim jak o potworze, to znaczy, że sami nim jesteśmy. Straszne… Rozumiem przerażenie ludzi przegniłych lewicową poprawnością polityczną, ale najwyższy czas aby zdali sobie sprawę, że pranie mózgu które na co dzień serwują za pomocą prasy i TV się nie sprawdza(w USA jest dokładnie to samo co w Europie). Ponadto gdyby miał to być eksperyment, to należałoby go kontynuować by próba była większa, by mógł zmierzyć się w dyskusji z opiniami przeciwnymi do wypowiadanych przez siebie.

    • twoja_stara

      Swieta prawda, ktorej lewactwo nie potrafi przyjac do wiadomosci.

      • Dariusz Knocinski

        Po przeczytaniu tych dwóch komentarzy dochodzę do wniosku, że “prawactwo” to ciężkie upośledzenie umysłowe.

  • r4aurean

    A czy nie macie przypadkiem wrażenia, że to może być taka “niby rzetelna” kampania anty-Trump? W sumie jakby przyjrzeć się tak nagłówkom w portalach to zaraz obok nazwiska Hitlera jest właśnie Trump. Nie to że popieram tego pana bo z polityką jestem na bakier i nawet nie wiem co on tam głosi, ale jakoś tak mi się na myśl nasunęło.

    • MrHybryda

      Masz dobre wrażenie. Nie ma cudów, aby przypadkiem SI połączyła nazwisko Trumpa z Hitlerem. Trump chce uderzyć w politykę multikulti: pogonić Meksykanów i uniemożliwić wjazd do USA muzułmanom, więc ktoś doszedł do wniosku, że można przedstawić Trumpa jako nowego Hitlera. Czatbot nie był jeszcze produktem, a jedynie testem, wiec wizerunek firmy nie ucierpi, a w przypadku Trumpa trudno powiedzieć, bo jak na razie ludzie coraz trudniej łykają kolejne ataki na Trumpa i coraz więcej dostrzega w nich wielki spisek establishmentu. Dokładnie to samo dzieje się w Polsce – im bardziej zajadłe ataki na PiS ze strony wyborczej i niemieckich mediów, tym bardziej partia rządząca zyskuje zwolenników.

  • Berenika Jasek

    Jakiego potwora? To tylko odbicie nas samych. To ludzie są potworami, a nie programy.

  • ajax

    Widząc jaka firma była “tfurcom” nie jestem zdziwiony efektami. Właściwie to spodziewałem się gorszych. Jest jeszcze dla ludzkości jakaś maleńka nadzieja

Nie ma więcej wpisów