captcha image

A password will be e-mailed to you.

Miałem okazję zapoznać się z aibo – psem-robotem, który został ambasadorem wspomaganego przez AI smartfona Xperia XZ3. Dopóki mały robot stał, myślałem, że to tylko taka nowoczesna zabawka dla dzieci. Jednak kiedy zaczął się ruszać, zobaczyłem w nim sztuczną inteligencję, która – jak się okazuje – wciąga nie tylko najmłodszych. Znacznie ciekawsze okazało się to, jak na aibo reagują prawdziwe psy i co robopies może zrobić dla osób starszych.

Oto aibo – Artificial Intelligence Robot, albo aibō, czyli po japońsku (相棒)„kumpel”. Jego rodowód sięga 1994 roku, kiedy dr Toshitada Doi z Sony Digital Creatures Lab wraz z Masahiro Fujitą rozpoczęli pracę nad robotem wspieranym przez sztuczną inteligencję. Na pierwszy miot trzeba było poczekać do 1998 roku. Wtedy to na świat przyszedł prototyp aibo o wyglądzie, który zaprojektował japoński grafik-hiperrealista Hajime Sorayama. Rok później ruszyła seryjna produkcja.

Obecnie na rynku dostępna jest 4. generacja aibo (ERS-1000), która pojawiła się w 2017 roku po 11 latach przerwy. Ponad dekada w rozwoju sztucznej inteligencji i zaawansowanej elektroniki to przepaść. Dziś aibo potrafi uczyć się jak prawdziwy pies. Jego czujniki symulują zmysł dotyku, słuchu, wzroku, równowagi.Aibo rozpoznaje głos, wykonuje polecenia, potrafi aportować, szczekać, robić „zdechł pies” i…  okazywać znudzenie zabawą. Pies, dzięki zastosowaniu kamery SLAM (Simultaneous Localization And Mapping), poznaje i zapamiętuje rozkład pomieszczeń. Potrafi wykrywać przeszkody i je omijać. Początkowo jest ostrożnym szczeniakiem, poznającym przestrzeń. Jednak gdy już ją zamapuje, czuje się jak u siebie w domu i wybiega, żeby się przywitać, kiedy ktoś znajomy otworzy drzwi.
Robot rozpoznaje do 100 twarzy, widzi uśmiechy i, jak prawdziwy pies, bardziej przywiązuje się do tej osoby, która poświęca mu więcej czasu. Jeśli ktoś będzie dla niego niemiły, aibo zacznie od takiej osoby uciekać.

Wcześniejsze modele aibo mogły rozpoznać 100 różnych komend głosowych i na nie reagować. ERS-1000 działa inaczej. Jego rozwój oddany jest w ręce AI. Pies rejestruje codzienne sytuacje. W zależności od tego, w jaki sposób i co do niego mówimy, rozwija swoją osobowość. To właściciel psa decyduje, jaki będzie aibo. Czy będzie sprytny czy powolny, czy nauczy się dawać łapę i tańczyć, czy może tylko siadać.

Robot wszystko to, co robi, zapisuje w chmurze, gdzie tworzy bazę wspomnień, którą możemy przeglądać przy pomocy specjalnej aplikacji. Ale podłączenie do chmury to nie tylko bonus dla właściciela, ale też sposób na wspólne uczenie się wszystkich robotów aibo od samych siebie.

Jeśli potraktować aibo jako zabawkę, to cyberpies jest drogim urządzeniem. Szczeniaki z pierwszego miotu w USA sprzedawane były po 2899 dolarów. Ale aibo to coś więcej.

Aibo: psi pies

Kiedy popatrzy się na nieruchomego aibo, to cyberpies wygląda jak zabawka. Sytuacja zmienia się, kiedy się go uruchomi. Ruchy (pies ma 22-stopnie swobody) i zachowanie robota są na tyle przekonujące, że zaczynamy go już zupełnie inaczej postrzegać. Widzimy w nim coś znajomego, coś zwierzęcego. Podczas eksperymentu, który miał miejsce w 2009 roku, dzieci w wieku 7-15 lat odbierały znacznie mniej zaawansowaną wersję aibo tak jak prawdziwego psa. Eksperyment przeprowadzony przez Sony w lipcu tego roku wykazał coś jeszcze bardziej ciekawego. Okazało się, że aibo oszukuje nawet prawdziwe psy.

Podczas eksperymentu trzy psy postanowiły dokładnie obwąchać aibo (fot. IT Media News )

Zoolożka Tadayaki Imaizumi podzieliła eksperyment na dwa etapy (za The Sankei News). W pierwszym etapie oceniany był pierwszy kontakt żywych zwierząt z robotem. Imaizumi obserwowała reakcję na aibo 13 psów różnych ras i będących w różnym wieku. Dziewięć z nich obwąchało aibo, a sześć z nich poszło o krok dalej i, tak jak to dzieje się w naturze, szukało potwierdzenia, sprawdzając zapach pod ogonem. Cztery psy były zaniepokojone i w ogóle nie podeszły do robota.

W drugiej części eksperymentu japońska zoolog obserwowała przez dwa tygodnie, jak trzy z najbardziej zainteresowanych psów koegzystują z aibo. Sześciomiesięczny pudel rozumiał imię aibo i ósmego dnia zaczął pokazywać robotowi brzuch. Imaizumi tłumaczy, że ten gest oznacza przyjaźń i poczucie bezpieczeństwa.

Trzyletni Jack Russell terier już na samym początku badania podszedł do aibo, a dziewiątego dnia zaczął kopiować jego zachowanie. Siadał, kładł się, co w psim języku mówi z kolei, że pies uważa drugiego osobnika za towarzysza i robi to samo. Trzynastego dnia terier zaczął nawet okazywać współczucie dla leżącego na plecach robota, próbując go podnieść poprzez trącanie nosem.

Druga część eksperymentu (fot. IT Media News )

W grupie psów (pięcioletnia suczka Shiba Inu, miniaturowy, trzyletni jamnik i równolatek samojed) suka odpędzała młodsze psy, kiedy te próbowały zbliżać się do aibo. Tadayaki Imaizumi powiedziała, że po zakończeniu eksperymentu wszystkie psy okazywały smutek po rozstaniu z towarzyszącym im przez dwa tygodnie robotem. Zoolożka zauważa, że psy, które mają obok inne zwierzęta, są w lepszej kondycji psychicznej. Pojawienie się w ich otoczeniu aibo może być wykorzystywane do łagodzenia psich stresów.

Dotyk na samotność

Terapeutyczny (i nie tylko) potencjał robotów dostrzega rząd Japonii, który będzie musiał zmierzyć się z problemem starzenia się swoich obywateli (do 2065 roku 40% mieszkańców Kraju Kwitnącej Wiśni będzie w wieku 65+). Japończycy szacują, że za siedem lat będzie brakować 370 000 opiekunów, którzy zajmują się osobami starszymi. By wypełnić tę lukę, rząd już teraz pracuje nad zwiększaniem społecznej akceptacji nowych technologii, które mogą zastąpić personel pielęgniarski.

Dr Hirohisa Hirukawa, dyrektor ds. badań nad innowacyjnością robotów w Narodowym Instytucie Zaawansowanej Nauki i Technologii Przemysłowej, uważa, że „robotyka nie jest w stanie rozwiązać wszystkich tych problemów, jednak będzie w stanie przyczynić się do rozwiązania części z nich”.  Zgodnie z japońską strategią dotyczącą robotów, rząd ma nadzieję, że do 2020 r. cztery na pięć osób korzystających z pomocy społecznej zaakceptuje otrzymanie pewnego wsparcia ze strony robotów.

Oprócz prostych rozwiązań, takich jak roboty służące do podnoszenia chorych z łóżek, podtrzymywania ich podczas spacerów, domy opieki widzą wsparcie w bardziej inteligentnych robotach. Przykładowo SoftBank Pepper, wykorzystywany jest już w 500 domach opieki do prowadzenia ćwiczeń i ograniczonej konwersacji. Foczka Paro stworzona przez japoński National Institute of Advanced Industrial Science and Technology i właśnie aibo z Sony mają być sposobem na samotność, która potrafi być zabójcza.

Badania przeprowadzone w 2013 roku przez naukowców z nowozelandzkiego University of Auckland pokazują, że roboty takie aibo czy Paro mają podobny wpływ na zmniejszenie poczucia osamotnienia u osób starszych jak prawdziwe zwierzęta. To bardzo ważne, bo subiektywne uczucie samotności, zgodnie z badaniami Brigham Young University, zwiększa ryzyko zgonu osób 65+ o ok. 30%

Nowe badania potwierdziły wnioski, do jakich już w 2008 roku  doszedł dr William Banks, profesor University of Washington. Naukowiec wraz z zespołem zbadał różnice pomiędzy wykorzystaniem żywego psa i starszej wersji aibo w terapii wspomaganej przez zwierzęta. Okazało się, że mieszkańcy domu opieki, którzy mieli kontakt ze „zwierzętami”, mniej odczuwali samotność w porównaniu z grupą kontrolną nieotrzymującą takiego wsparcia. Najciekawsze jest to, że pensjonariusze biorący udział w eksperymencie wykazali wysoki poziom przywiązania zarówno do psa żywego, jak i robota. Cześć z badanych stwierdziła nawet, że robot jest lepszy od żywego zwierzęcia.

Psy, w przeciwieństwie do robotów, przywiązują się do nas i trzeba je pielęgnować. Dlatego niektórzy mieszkańcy domu opieki mówili, że woleliby obcować z aibo niż z prawdziwym psem. Łatwiej było im się z nim rozstać i nie mieliby problemu, gdyby nagle przyszło im się udać do szpitala.

Jest jeszcze coś. Podczas badań okazało się, że pensjonariusze często nie byli w stanie nawiązać kontaktu z żywym zwierzęciem. Psy, choć nie są takimi indywidualistami jak koty, same decydowały, z kim chcą przebywać i jak wolą spędzać czas, np. leżeć na kolanach albo na swoim posłaniu.

Aibo w domu opieki prowadzonym przez Sony (fot. PR Times)

W kwietniu tego roku Sony Life Care wprowadziło najnowsze aibo do kilku japońskich domów opieki, którymi zarządza. Już po pierwszych badaniach wiadomo, że pensjonariusze bardzo pozytywnie odnoszą się do robota. Dotykanie go, mówienie do niego, pozytywnie motywuje osoby starsze. Dla Sony będzie to również swego rodzaju poligon testowy, który posłuży do dalszego usprawniania robota.

Niewidoczna (ale za to pomocna) AI w telefonie

Jak wspomniałem na wstępie, aibo jest ambasadorem telefonu Xperia XZ3. Nie dzieje się to bez powodu, bo smartfon Sony również korzysta z algorytmów sztucznej inteligencji. Tyle, że w przeciwieństwie do psa-robota najczęściej nawet tego nie zauważamy.

Przede wszystkim AI wykorzystywana jest w XZ3 przez 19-megapikselowy aparat. Pierwszy moment, kiedy zaczyna ona działać, to przewidywanie samego faktu, że zamierzamy zrobić zdjęcie. Muszę przyznać, że to bardzo pomysłowa funkcja Smart Launch. Algorytmy aplikacji służącej do robienia zdjęć cały czas monitorują pracę kilku sensorów, takich jak czujnik zbliżeniowy, czujnik światła, akcelerometr. Wystarczy, że wsuniemy rękę do kieszeni, wyciągniemy telefon i ustawimy go sobie przed twarzą, a Xperia przełączy się w tryb robienia zdjęć.

Teraz do głosu dojdzie już znacznie bardziej zaawansowany procesor wizyjnego przetwarzania obrazu. Choć my jeszcze nie nacisnęliśmy spustu migawki, to VPU oceni, co widzi, i odpowiednio do tego dobierze parametry aparatu. Przykładowo, gdy rozpozna jadący samochód czy szybko biegnące dzieci, zacznie od ustawienia krótkiego czasu otwarcia migawki, by uniknąć rozmazania zdjęcia. Podczas fotografowania jedzenia czy ciemnego krajobrazu zastosuje odpowiednią korektę kolorów, głębię ostrości i aktywuje dodatkową stabilizację obrazu.

Najbardziej przydatną funkcją (z mojego punktu widzenia) jest Predictive Capture. Ta funkcja zaczyna robić zdjęcia, zanim sami naciśniemy na spust. Kiedy tylko aparat wykryje ruch obiektu, zaczyna zapisywać zdjęcia, by wybrać z nich najlepsze ujęcie. Takie rozwiązanie ma uchronić nas od robienia zawsze spóźnionych zdjęć, na których zabrakło kulminacyjnego momentu akcji.

To zresztą nie wszystko, bo dzięki przetwarzaniu wizyjnemu telefony Sony mogą zamienić się w skaner 3D, o czy pisaliśmy już jakiś czas temu, czy dodawać do zdjęć i filmów obiekty rozszerzonej rzeczywistości (Efekty AR).

W wersji telefonu XZ3, która ma duży, 6-calowy ekran, uczenie maszynowe zostało wykorzystane w celu ułatwienia obsługi jedną ręką. Funkcja Boczny sensor do działania wykorzystuje czujniki, kryjące się po obu stronach ekranu. Dwukrotne kliknięcie w jedną z krawędzi uruchamia tuż pod kciukiem wygodne w obsłudze menu z aplikacjami i skrótami. To sprytne, ale jeszcze nie inteligentne.

Mądrość przyjdzie dopiero z czasem, kiedy telefon nauczy się naszych zwyczajów. Wtedy AI zapełni menu różnymi aplikacjami w zależności od tego, w jakim miejscu się znajdujemy, która jest godzina itp.

 


Aibo można spotkać w dwóch salonach Orange w Warszawie. Pierwszy z nich mieści się w dawnym Sezamie (dziś: Centrum Marszałkowska) przy ul. Marszałkowskiej 126/134, drugi – w galerii handlowej Arkadia. Z robotami można pobawić się w godzinach od 13.00 do 19.00 do 16 listopada. Z tej okazji Sony uruchomiło akcję sprzedażową Xperii XZ3. Do każdego smartfona dołączona będzie bezprzewodowa ładowarka WCH20 o wartości 429,99 zł.

 

Tekst jest elementem współpracy z firmą Sony Mobile Polska. Partner nie miał wpływu na opinie, które wyrażamy.

Nie ma więcej wpisów