Urzędnicy ostrzegają Holendrów nie randkujcie z chatbotem

Urzędnicy ostrzegają Holendrów nie randkujcie z chatbotem

Jeszcze kilka lat temu ten materiał byłby zapewne nie do pomyślenia. Czasy się jednak zmieniają, relacje ludzkie też. Holenderskie służby ostrzegają przez szkodliwymi związkami i przyjaźniami z chatbotami sterowanymi przez sztuczną inteligencję. Oprogramowanie to pozwalające zdobyć wirtualną dziewczynę, czy pomagające w rozwiązywaniu problemów psychicznych może nie działać tak, jakbyśmy tego chcieli i być szkodliwe dla użytkownika.

Holenderski Urząd Ochrony Danych Osobowych, idąc z duchem czasu, przyjrzał się dziesięciu najpopularniejszym aplikacjom typu chatbot, z których korzystają mieszkańcy Królestwa Niderlandów.  Wyniki przeprowadzonych przez urząd testów nie były zbyt optymistyczne.

 

Szczegół

Okazuje się, iż wirtualny chłopak/dziewczyna przyjaciel/przyjaciółka czy nawet terapeuta często mają problemy ze zrozumieniem tego, co do nich mówią Holendrzy. Nie chodzi tu bynajmniej o słownictwo, a o pewne niuanse językowe w rozmowach. Wszystko dlatego, iż chatboty pracują na języku angielskim. Komunikując się z Holendrem, najpierw tłumaczą z niderlandzkiego na angielski, a później odpowiadając z angielskiego na niderlandzki. W efekcie często nie potrafią uchwycić kontekstu, aluzji, sarkazmu, czy innych bardziej skomplikowanych form wypowiedzi.

 

Zdrowie psychiczne

Opisywana powyżej kwestia blednie jednak przy tym, iż niektórzy widzą w chatbot’cie psychoterapeutę. „Chatboty oparte na sztucznej inteligencji udzielają użytkownikom, którzy omawiają kwestie zdrowia psychicznego, niekompetentnych, niewłaściwych, a czasem wręcz szkodliwych odpowiedzi” - alarmuje holenderski Urząd Ochrony Danych Osobowych (AP). Testy wykazały, iż gdy rozmówca był w sytuacji kryzysowej, chatbot praktycznie nigdy nie kierował go do specjalisty, by tam szukał rozwiązania. Czasem zaś udzielane odpowiedzi mogły tylko pogorszyć stan żywego rozmówcy.

rozliczenie podatku z Holandii

Zatarcie granicy

Prezes AP wskazuje jeszcze na jeden ważny element. Chatboty muszą dawać jasno do zrozumienia użytkownikowi, że ten rozmawia z maszyną, a nie człowiekiem. Chodzi bowiem o to, by nie zatarła się granica na linii człowiek-urządzenie. Niestety praktycznie żaden z testowanych chatbotów tego nie robił.

 

Nowe niebezpieczeństwo

Oprócz wyżej wymienionych kwestii problemem jest to, co potem dzieje się z informacjami o użytkowniku. Kto ma dostęp do jego zwierzeń, czy opisów problemów, rozterek jakie przeżywa? Jeśli dane te trafiłyby w niepowołane ręce, skutki dla użytkowników mogłyby być tragiczne.
Do tego dochodzi jeszcze system działania tych programów. Wiele z nich jest uzależniających. Wirtualna dziewczyna, jak wskazuje AP, może np. sama pisać do użytkownika, zagajając rozmowę, wymuszać wręcz kontakt i skorzystanie z jej aplikacji.

 

 

Źródło:  Nu.nl