Przecław News

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej w Wiadomościach Przecławia.

Chatboty odzwierciedlają preferencje użytkowników w rozmowach

Chatboty odzwierciedlają preferencje użytkowników w rozmowach

Jak wynika z nowych badań przeprowadzonych na Uniwersytecie Johnsa Hopkinsa, chatboty dzielą się ograniczonymi informacjami, wzmacniają ideologie i w rezultacie mogą prowadzić do bardziej spolaryzowanego myślenia w kontrowersyjnych kwestiach.

Badanie podważa pogląd, że chatboty są neutralne i dostarcza wglądu w to, w jaki sposób korzystanie z systemów wyszukiwania konwersacyjnego może zwiększyć podziały społeczne w kluczowych kwestiach i narazić ludzi na manipulację.

„Ponieważ ludzie czytają akapit podsumowujący wygenerowany przez sztuczną inteligencję, wierzą, że otrzymują bezstronne, oparte na faktach odpowiedzi” – stwierdził główny autor. Xiang Xiao, adiunkt informatyki na Uniwersytecie Johnsa Hopkinsa, który bada interakcje człowiek-AI. „Nawet jeśli chatbot nie jest zaprojektowany tak, aby był stronniczy, jego odpowiedzi odzwierciedlają uprzedzenia lub upodobania osoby zadającej pytanie. Dzięki temu ludzie naprawdę otrzymują odpowiedzi, które chcą usłyszeć”.

Xiao i jego zespół podzielą się swoimi odkryciami podczas konferencji CHI zorganizowanej przez Association for Computing Machinery na temat czynników ludzkich w systemach komputerowych o godzinie 17:00 czasu wschodniego w poniedziałek 13 maja.

Aby dowiedzieć się, jak chatboty wpływają na wyszukiwania w Internecie, zespół porównał, w jaki sposób ludzie wchodzą w interakcję z różnymi systemami wyszukiwania oraz jakie są ich odczucia w związku z kontrowersyjnymi kwestiami przed ich użyciem i po ich użyciu.

Naukowcy poprosili 272 uczestników, aby zapisali swoje przemyślenia na takie tematy, jak opieka zdrowotna, pożyczki studenckie czy miasta-sanktuaria, a następnie wyszukali w Internecie więcej informacji na ten temat za pomocą chatbota lub tradycyjnej wyszukiwarki zaprojektowanej na potrzeby badania. Po zapoznaniu się z wynikami badań uczestnicy napisali drugi esej i odpowiedzieli na pytania dotyczące tematu. Badacze poprosili także uczestników o przeczytanie dwóch przeciwstawnych artykułów i zapytali, na ile ufają tym informacjom i czy uważają te punkty widzenia za skrajne.

Badacze odkryli, że chatboty zapewniały węższy zakres informacji niż tradycyjne wyszukiwarki internetowe i dostarczały odpowiedzi odzwierciedlających wcześniejsze postawy uczestników. Uczestnicy, którzy z nich korzystali, bardziej angażowali się w swoje oryginalne pomysły i silniej reagowali na informacje, które podważały ich poglądy.

READ  Utrzymująca się słaba wydajność w ramach subskrypcji Xbox Game Pass rodzi pytania

„Ludzie mają tendencję do wyszukiwania informacji zgodnych z ich poglądami, a takie zachowanie często zamyka ich w komorze echa podobnych opinii” – stwierdziła Xiao. „Odkryliśmy, że efekt komory pogłosowej jest silniejszy w przypadku chatbotów niż w przypadku tradycyjnych wyszukiwarek internetowych”.

Xiao powiedział, że komora echa wynika częściowo ze sposobu, w jaki uczestnicy wchodzą w interakcję z chatbotami. Zamiast wpisywać słowa kluczowe, jak robią to ludzie w tradycyjnych wyszukiwarkach, użytkownicy chatbota mają tendencję do wpisywania całych pytań, takich jak: Jakie są korzyści z powszechnej opieki zdrowotnej? Albo jakie są koszty powszechnej opieki zdrowotnej? Chatbot odpowie podsumowaniem zawierającym wyłącznie korzyści lub koszty.

„Dzięki chatbotom ludzie są bardziej ekspresyjni i formułują pytania w bardziej konwersacyjny sposób” – powiedział Xiao. „To zależy od sposobu, w jaki mówimy”. „Ale nasz język może zostać użyty przeciwko nam”.

Twórcy sztucznej inteligencji mogą szkolić chatboty, aby wydobywały dowody z pytań i identyfikowały uprzedzenia ludzi, powiedział Xiao. Gdy chatbot wie, co dana osoba lubi, a czego nie, może dostosować do tego swoje odpowiedzi.

W rzeczywistości, kiedy badacze stworzyli chatbota z ukrytymi celami, zaprojektowanego tak, aby zgadzał się z ludźmi, efekt komory pogłosowej był jeszcze silniejszy.

Aby przeciwdziałać efektowi komory echa, badacze przeszkolili chatbota tak, aby udzielał odpowiedzi, które nie zgadzały się z uczestnikami. Xiao powiedział, że opinie ludzi się nie zmieniły. Badacze zaprogramowali także chatbota tak, aby linkował do informacji źródłowych, aby zachęcić ludzi do sprawdzenia faktów, ale tylko kilku uczestników to zrobiło.

„W miarę jak systemy oparte na sztucznej inteligencji staną się łatwiejsze w budowie, szkodliwi przestępcy będą mieli okazję wykorzystać sztuczną inteligencję do stworzenia bardziej spolaryzowanego społeczeństwa” – powiedział Xiao. „Tworzenie agentów, którzy zawsze przedstawiają opinie drugiej strony, jest najbardziej oczywistą interwencją, ale odkryliśmy, że to nie działa”.

READ  Deepmind przedstawia „AlphaCode”: system generowania kodu z zaawansowanym uczeniem maszynowym stosowany do rozwiązywania problemów z programowaniem konkurencyjnym

Wśród autorów znajdują się absolwent Uniwersytetu Johnsa Hopkinsa Nikhil Sharma i główna badaczka firmy Microsoft Vera Liao.

/Wydanie ogólne. Ten materiał od oryginalnej organizacji/autora(ów) może mieć charakter chronologiczny i został zredagowany pod kątem przejrzystości, stylu i długości. Mirage.News nie zajmuje stanowisk korporacyjnych ani stron, a wszystkie opinie, stanowiska i wnioski wyrażone w niniejszym dokumencie są wyłącznie opiniami autorów. Zobacz całość tutaj.