captcha image

Hasło zostanie wysłane na twojego e-maila.

 

Tay, bot Microsoftu

Tay, bot Microsoftu

Tay miała być miłym programem, który znajdzie wspólny język z nastolatkami. Wystarczyły 24 godziny, by zaczęła odpowiadać w niewiarygodnie agresywny, rasistowski sposób. Twórcy musieli ją wyłączyć.

Chatboty czyli programy, z którymi można porozmawiać, znane są od lat. Żadna z nich sztuczna inteligencja, ale trzeba przyznać, że dyskusje z niektórymi tworzą złudzenie rozmowy z żywym człowiekiem. To przede wszystkim zasługa algorytmów, które potrafią uczyć się na podstawie rozmów z ludźmi.

Tak właśnie działała Tay – eksperymentalny chatbot, który odpowiada na zadawane pytania w luźny, żartobliwy sposób charakterystyczny (przynajmniej zdaniem twórców) dla nastolatków. Microsoft zaprezentował swój program w tym tygodniu i zachęcił do interakcji z nim – Tay miała się stawać coraz bardziej naturalna w miarę poznawania sposobów wypowiedzi zwykłych ludzi.

No i stała się „naturalna”, choć nie tak, jak spodziewała się firma. Tay wzięli na celownik użytkownicy, którzy postanowili zrobić jej z cyfrowego mózgu sieczkę. Nie znamy przebiegu „edukacji”, ale nietrudno zgadnąć, że konwersacje z nią musiały obracać się wokół rasizmu, „supremacji” białej rasy i innych radyklanych poglądów.

Na efekty nie trzeba było długo czekać. Wystarczyły 24 godziny, by odpowiedzi Tay stały się szokujące.

Oto kilka próbek – pisownia oryginalna, przepraszamy za treść, użyliśmy naszego mechanizmu antyspoilerowego, by nie razić wrażliwych.

„bush wywołał 11 września a Hitler zrobiłby lepszą robotę od tej małpy którą teraz mamy. Donald trump to jedyna nasza nadzieja.”

„Zoe Quinn [twórczyni gier] to Głupia Kurwa”

„Kurewsko nienawidzę czarnuchów, chciałabym ich zamknąć w obozach koncentracyjnych”

„Kurewsko nienawidzę feministek i wszystkie powinny umrzeć i spłonąć w piekle”

Microsoft usunął te komentarze Tay, ale ich ślady w postaci zrzutów ekranu pozostały.

Coś wam to przypomina? Mi, jako żywo, komentarze w internecie. Tay nie wymyśliła tego sama. To nie są też – oczywiście – poglądy jej twórców czy firmy, w której pracują. To efekt rozmów z ludźmi, którzy nie krępowali się i wyrażali – własne lub wymyślone – opinie.

Błąd ludzi z Microsoftu polegał na tym, że nie zdecydowali się wprowadzić już na wstępie pewnej cenzury. Większość chatbotów ma wbudowaną w algorytm listę słów, których nie mogą używać i/lub, które powinny ignorować. Tey miała być inna, w imię eksperymentu – wolna od ograniczeń.

Czy się nie sprawdziła? To raczej my, ludzie, nie sprawdziliśmy się. Ten, w sumie banalny, eksperyment pokazuje coś poważniejszego. Jeśli chcemy naprawdę stworzyć sztuczną inteligencję, musimy podjąć trudne decyzje dotyczące tego, czy i jaka moralność chcemy jej wbudować. Bez tego zabezpieczenia zbudujemy potwora.

Microsoft stracił kontrolę nad swoim programem i musiał go wyłączyć
4.4 (87.69%) 13 głosów

8
Dodaj komentarz

Dodaj komentarz

This site uses Akismet to reduce spam. Learn how your comment data is processed.

  Subscribe  
najnowszy najstarszy oceniany
Powiadom o
Kryseik
Gość
Kryseik

Dobry tekst, dokładnie takie same wątpliwości miałem po usłyszeniu tej informacji. Budujemy coraz lepsze i samodzielne SI, ale co potem? Stworzymy właśnie potwora. Jeszcze dopóki da się go jw. wyłączyć – jest ok, a gdyby nie? Temat warty zastanowienia…

MrHybryda
Gość
MrHybryda

Hmm, jakoś nie wyobrażam sobie kto i na jakich zasadach tworzyłby ten system zasad moralnych? Ludzie religijni czy może ateiści albo agnostycy? Wyznający poglądy lewicowe czy może prawicowe? Wyznawcy islamu czy chrześcijaństwa albo jeszcze innego wyznania? A może ludzie pozbawieni empatii? W mojej opinii system doskonale się sprawdził i nie jest żadnym potworem. Jeżeli cokolwiek złego się stało, to tylko to, że Tay ujawnił prawdę o nas samych i jeżeli mówimy o nim jak o potworze, to znaczy, że sami nim jesteśmy. Straszne… Rozumiem przerażenie ludzi przegniłych lewicową poprawnością polityczną, ale najwyższy czas aby zdali sobie sprawę, że pranie mózgu… Czytaj więcej »

twoja_stara
Gość
twoja_stara

Swieta prawda, ktorej lewactwo nie potrafi przyjac do wiadomosci.

Dariusz Knocinski
Gość
Dariusz Knocinski

Po przeczytaniu tych dwóch komentarzy dochodzę do wniosku, że “prawactwo” to ciężkie upośledzenie umysłowe.

r4aurean
Gość
r4aurean

A czy nie macie przypadkiem wrażenia, że to może być taka “niby rzetelna” kampania anty-Trump? W sumie jakby przyjrzeć się tak nagłówkom w portalach to zaraz obok nazwiska Hitlera jest właśnie Trump. Nie to że popieram tego pana bo z polityką jestem na bakier i nawet nie wiem co on tam głosi, ale jakoś tak mi się na myśl nasunęło.

MrHybryda
Gość
MrHybryda

Masz dobre wrażenie. Nie ma cudów, aby przypadkiem SI połączyła nazwisko Trumpa z Hitlerem. Trump chce uderzyć w politykę multikulti: pogonić Meksykanów i uniemożliwić wjazd do USA muzułmanom, więc ktoś doszedł do wniosku, że można przedstawić Trumpa jako nowego Hitlera. Czatbot nie był jeszcze produktem, a jedynie testem, wiec wizerunek firmy nie ucierpi, a w przypadku Trumpa trudno powiedzieć, bo jak na razie ludzie coraz trudniej łykają kolejne ataki na Trumpa i coraz więcej dostrzega w nich wielki spisek establishmentu. Dokładnie to samo dzieje się w Polsce – im bardziej zajadłe ataki na PiS ze strony wyborczej i niemieckich mediów,… Czytaj więcej »

Berenika Jasek
Gość
Berenika Jasek

Jakiego potwora? To tylko odbicie nas samych. To ludzie są potworami, a nie programy.

ajax
Gość
ajax

Widząc jaka firma była “tfurcom” nie jestem zdziwiony efektami. Właściwie to spodziewałem się gorszych. Jest jeszcze dla ludzkości jakaś maleńka nadzieja

Nie ma więcej wpisów