Przecław News

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej w Wiadomościach Przecławia.

Dlaczego AI miałaby się nas bać be

Sztuczna inteligencja stopniowo nas dogania. Teraz algorytmy AI mogą nas pokonać szachyA Poker A Wieloosobowe gry wideoGeneruj obrazy ludzkich twarzy, których nie można odróżnić od prawdziwych twarzyA Pisanie artykułów z wiadomościami (Nie to!) Nawet historie miłosneI jeździ lepiej niż większość nastolatków.

Ale sztuczna inteligencja nie jest jeszcze doskonała, jeśli Woebot jest jakąkolwiek wskazówką. Woebot, jak Karen Brown napisała w tym tygodniu w Science Times, Jest to aplikacja na smartfona oparta na sztucznej inteligencji, która ma na celu zapewnienie tanich konsultacji, używając dialogu, aby poprowadzić użytkowników przez podstawowe techniki CBT. Jednak wielu psychologów kwestionuje, czy algorytm AI może wyrazić rodzaj empatii potrzebnej do działania terapii interpersonalnej.

„Te aplikacje naprawdę skracają główny element, który – pokazując stos dowodów – pomaga w terapii, czyli relację terapeutyczną” – Linda Michaels, terapeutka z Chicago, która pełni funkcję współprzewodniczącej grupy zawodowej Psychotherapy Network, powiedział The Times.

Oczywiście empatia to droga dwukierunkowa, a my, ludzie, nie pokazujemy robotom dużo więcej niż roboty nam. Kilka badań wykazało, że kiedy ludzie znajdują się w sytuacji, w której mogą współpracować z życzliwą sztuczną inteligencją, są mniej skłonni do tego, niż gdyby robot był prawdziwą osobą.

„Wydaje się, że czegoś brakuje we wzajemności” – powiedziała mi Ophelia DeRoy, filozof z Uniwersytetu Ludwika Maksymiliana w Monachium. „Zasadniczo radzimy sobie z nieznajomym lepiej niż sztuczna inteligencja”

W niedawnym badaniuDr Deroy i jej koledzy neurolodzy postanowili zrozumieć dlaczego. Badacze połączyli ludzi z niewidzialnymi partnerami, czasami z ludźmi, a czasami ze sztuczną inteligencją. Następnie każda para grała w serię klasycznych gier ekonomicznych – Trust, Prisoner’s Dilemma, Chicken and Stag Hunt, a także w stworzoną przez siebie grę Reciprocity – zaprojektowaną do mierzenia i nagradzania współpracy.

READ  McCormack mówi, że uruchomienie szczepionki nie jest sprintem | Campbelltown MacArthur Advertiser

Ogólnie przyjmuje się, że nasz brak wzajemności w stosunku do AI odzwierciedla brak zaufania. Jest taki racjonalny i niedostrzegalny, przecież na pewno tylko dla siebie, raczej nie będziemy współpracować, więc dlaczego mielibyśmy? Dr Deroy i jej koledzy doszli do innego i być może mniej wygodnego wniosku. Ich badanie wykazało, że ludzie rzadziej współpracowali z botem, nawet jeśli ten był chętny do współpracy. Nie chodzi o to, że nie ufamy botowi, po prostu to robimy: Bot to zaufany, charytatywny, duży lizak S, więc wykorzystujemy to.

Ten wniosek potwierdziły późniejsze rozmowy z uczestnikami badania. „Nie tylko mieli tendencję do nie odwzajemniania wspólnych intencji sztucznych agentów, ale kiedy zasadniczo zdradzili zaufanie robota, nie zgłaszali winy, podczas gdy robili to ludziom” – powiedział dr Deroy. „Możesz po prostu zignorować bota i nie ma poczucia, że ​​złamałeś jakiekolwiek wzajemne zobowiązanie” – dodała.

Może to mieć konsekwencje w świecie rzeczywistym. Kiedy myślimy o sztucznej inteligencji, zwykle myślimy o Alexasie i Siris w naszym futurystycznym świecie, z którymi możemy stworzyć rodzaj pseudo-intymności. Ale większość naszych interakcji będzie jednorazowymi, często bezsłownymi spotkaniami. Wyobraź sobie, że jedziesz autostradą i chcesz, aby przed tobą wjechał samochód. Jeśli zauważysz, że samochód jest bez kierowcy, będzie mniej prawdopodobne, że go wpuścisz. A jeśli sztuczna inteligencja nie weźmie pod uwagę twojego złego zachowania, może dojść do wypadku.

„To, co podtrzymuje współpracę w społeczeństwie na dowolną skalę, to ustanowienie pewnych zasad” – powiedział dr Deroy. “Społeczną funkcją poczucia winy jest właśnie skłonienie ludzi do przestrzegania norm społecznych, które prowadzą ich do kompromisu i współpracy z innymi. Nie wyewoluowaliśmy, aby mieć standardy społeczne lub moralne dla nieświadomych stworzeń i robotów”.

To oczywiście połowa wstępu do „Westworld”. (Ku mojemu zdziwieniu dr Deroy nigdy nie słyszał o serialu HBO.) Ale krajobrazy wolne od poczucia winy mogą mieć konsekwencje, powiedziała: „Jesteśmy stworzeniami z przyzwyczajenia. Więc co gwarantuje, że zachowanie, które się powtarza i gdzie okazujesz mniej grzeczności, mniej zaangażowania moralnego i mniej współpracy, nie splami i nie zanieczyści reszty swojego zachowania podczas interakcji z inną osobą?”

READ  Nie należy wykluczać teorii wycieku laboratoryjnego Wuhan Covid

Podobne konsekwencje mają też sztuczna inteligencja. „Jeśli ludzie traktują ich źle, są zaprogramowani, aby uczyć się na podstawie tego, czego doświadczają” – powiedziała. „Sztuczna inteligencja, która jest wprowadzana na drogę i zaprogramowana, aby była ważna, musi najpierw nie być tego rodzaju dla ludzi, bo inaczej utknie w korku na zawsze”. (Jest to zasadniczo druga połowa założenia „Westworld”).

Masz to: prawdziwym testem Turinga jest furia na drogach. Kiedy autonomiczny samochód zacznie mocno trąbić od tyłu, ponieważ go przeciąłeś, będziesz wiedział, że ludzkość osiągnęła szczyt osiągnięć. Miejmy nadzieję, że do tego czasu terapia AI będzie wystarczająco zaawansowana, aby pomóc autonomicznym samochodom rozwiązywać problemy z zarządzaniem gniewem.