Urzędnicy ostrzegają Holendrów nie randkujcie z chatbotem

Urzędnicy ostrzegają Holendrów nie randkujcie z chatbotem

Jeszcze kilka lat temu ten materiał byłby zapewne nie do pomyślenia. Czasy się jednak zmieniają, relacje ludzkie też. Holenderskie służby ostrzegają przez szkodliwymi związkami i przyjaźniami z chatbotami sterowanymi przez sztuczną inteligencję. Oprogramowanie to pozwalające zdobyć wirtualną dziewczynę, czy pomagające w rozwiązywaniu problemów psychicznych może nie działać tak, jakbyśmy tego chcieli i być szkodliwe dla użytkownika.

Holenderski Urząd Ochrony Danych Osobowych, idąc z duchem czasu, przyjrzał się dziesięciu najpopularniejszym aplikacjom typu chatbot, z których korzystają mieszkańcy Królestwa Niderlandów.  Wyniki przeprowadzonych przez urząd testów nie były zbyt optymistyczne.

 

Szczegół

Okazuje się, iż wirtualny chłopak/dziewczyna przyjaciel/przyjaciółka czy nawet terapeuta często mają problemy ze zrozumieniem tego, co do nich mówią Holendrzy. Nie chodzi tu bynajmniej o słownictwo, a o pewne niuanse językowe w rozmowach. Wszystko dlatego, iż chatboty pracują na języku angielskim. Komunikując się z Holendrem, najpierw tłumaczą z niderlandzkiego na angielski, a później odpowiadając z angielskiego na niderlandzki. W efekcie często nie potrafią uchwycić kontekstu, aluzji, sarkazmu, czy innych bardziej skomplikowanych form wypowiedzi.

 

Zdrowie psychiczne

Opisywana powyżej kwestia blednie jednak przy tym, iż niektórzy widzą w chatbot’cie psychoterapeutę. „Chatboty oparte na sztucznej inteligencji udzielają użytkownikom, którzy omawiają kwestie zdrowia psychicznego, niekompetentnych, niewłaściwych, a czasem wręcz szkodliwych odpowiedzi” - alarmuje holenderski Urząd Ochrony Danych Osobowych (AP). Testy wykazały, iż gdy rozmówca był w sytuacji kryzysowej, chatbot praktycznie nigdy nie kierował go do specjalisty, by tam szukał rozwiązania. Czasem zaś udzielane odpowiedzi mogły tylko pogorszyć stan żywego rozmówcy.

Zatarcie granicy

Prezes AP wskazuje jeszcze na jeden ważny element. Chatboty muszą dawać jasno do zrozumienia użytkownikowi, że ten rozmawia z maszyną, a nie człowiekiem. Chodzi bowiem o to, by nie zatarła się granica na linii człowiek-urządzenie. Niestety praktycznie żaden z testowanych chatbotów tego nie robił.

 

Nowe niebezpieczeństwo

Oprócz wyżej wymienionych kwestii problemem jest to, co potem dzieje się z informacjami o użytkowniku. Kto ma dostęp do jego zwierzeń, czy opisów problemów, rozterek jakie przeżywa? Jeśli dane te trafiłyby w niepowołane ręce, skutki dla użytkowników mogłyby być tragiczne.
Do tego dochodzi jeszcze system działania tych programów. Wiele z nich jest uzależniających. Wirtualna dziewczyna, jak wskazuje AP, może np. sama pisać do użytkownika, zagajając rozmowę, wymuszać wręcz kontakt i skorzystanie z jej aplikacji.

 

 

Źródło:  Nu.nl