captcha image

Hasło zostanie wysłane na twojego e-maila.

 

Tay, bot Microsoftu

Tay, bot Microsoftu

Tay miała być miłym programem, który znajdzie wspólny język z nastolatkami. Wystarczyły 24 godziny, by zaczęła odpowiadać w niewiarygodnie agresywny, rasistowski sposób. Twórcy musieli ją wyłączyć.

Chatboty czyli programy, z którymi można porozmawiać, znane są od lat. Żadna z nich sztuczna inteligencja, ale trzeba przyznać, że dyskusje z niektórymi tworzą złudzenie rozmowy z żywym człowiekiem. To przede wszystkim zasługa algorytmów, które potrafią uczyć się na podstawie rozmów z ludźmi.

Tak właśnie działała Tay – eksperymentalny chatbot, który odpowiada na zadawane pytania w luźny, żartobliwy sposób charakterystyczny (przynajmniej zdaniem twórców) dla nastolatków. Microsoft zaprezentował swój program w tym tygodniu i zachęcił do interakcji z nim – Tay miała się stawać coraz bardziej naturalna w miarę poznawania sposobów wypowiedzi zwykłych ludzi.

No i stała się „naturalna”, choć nie tak, jak spodziewała się firma. Tay wzięli na celownik użytkownicy, którzy postanowili zrobić jej z cyfrowego mózgu sieczkę. Nie znamy przebiegu „edukacji”, ale nietrudno zgadnąć, że konwersacje z nią musiały obracać się wokół rasizmu, „supremacji” białej rasy i innych radyklanych poglądów.

Na efekty nie trzeba było długo czekać. Wystarczyły 24 godziny, by odpowiedzi Tay stały się szokujące.

Oto kilka próbek – pisownia oryginalna, przepraszamy za treść, użyliśmy naszego mechanizmu antyspoilerowego, by nie razić wrażliwych.

„bush wywołał 11 września a Hitler zrobiłby lepszą robotę od tej małpy którą teraz mamy. Donald trump to jedyna nasza nadzieja.”

„Zoe Quinn [twórczyni gier] to Głupia Kurwa”

„Kurewsko nienawidzę czarnuchów, chciałabym ich zamknąć w obozach koncentracyjnych”

„Kurewsko nienawidzę feministek i wszystkie powinny umrzeć i spłonąć w piekle”

Microsoft usunął te komentarze Tay, ale ich ślady w postaci zrzutów ekranu pozostały.

Coś wam to przypomina? Mi, jako żywo, komentarze w internecie. Tay nie wymyśliła tego sama. To nie są też – oczywiście – poglądy jej twórców czy firmy, w której pracują. To efekt rozmów z ludźmi, którzy nie krępowali się i wyrażali – własne lub wymyślone – opinie.

Błąd ludzi z Microsoftu polegał na tym, że nie zdecydowali się wprowadzić już na wstępie pewnej cenzury. Większość chatbotów ma wbudowaną w algorytm listę słów, których nie mogą używać i/lub, które powinny ignorować. Tey miała być inna, w imię eksperymentu – wolna od ograniczeń.

Czy się nie sprawdziła? To raczej my, ludzie, nie sprawdziliśmy się. Ten, w sumie banalny, eksperyment pokazuje coś poważniejszego. Jeśli chcemy naprawdę stworzyć sztuczną inteligencję, musimy podjąć trudne decyzje dotyczące tego, czy i jaka moralność chcemy jej wbudować. Bez tego zabezpieczenia zbudujemy potwora.

Microsoft stracił kontrolę nad swoim programem i musiał go wyłączyć
4.4 (87.69%) 13 głosów

Czego u nas szukaliście?

Nie ma więcej wpisów