Inżynieria | Biuletyny | Szukaj | technologia
2 listopada 2023 r
Narzędzia generatywne AI, takie jak ChatGPT, narzędzie językowe oparte na sztucznej inteligencji i Midjourney, generator obrazów oparty na sztucznej inteligencji, mogą pomóc osobom z różnymi niepełnosprawnościami. Narzędzia te mogą podsumowywać treść, tworzyć wiadomości lub opisywać obrazy. Jednak stopień tej możliwości pozostaje kwestią otwartą, ponieważ dodatkowo jest to regularnie wykonywane Nieprecyzyjność wymowy I Błąd w podstawowej logiceTe narzędzia mogą Utrwalanie uprzedzeń zdolnych.
W tym roku siedmiu badaczy z Uniwersytetu Waszyngtońskiego przeprowadziło trzymiesięczne badanie autoetnograficzne – opierając się na własnych doświadczeniach osób niepełnosprawnych i pełnosprawnych – aby sprawdzić użyteczność narzędzi sztucznej inteligencji w zakresie dostępności. Chociaż badacze znaleźli przypadki, w których narzędzia były przydatne, odkryli również poważne problemy z narzędziami AI w większości przypadków użycia, niezależnie od tego, czy generowano obrazy, pisano wiadomości w Slacku, pisano podsumowania, czy też próbowano poprawić dostępność dokumentów.
Zespół zaprezentował Moje ustalenia 22 października br Aktywa 2023 Konferencja w Nowym Jorku.
„Kiedy technologia zmienia się szybko, zawsze istnieje ryzyko, że osoby niepełnosprawne zostaną pozostawione w tyle” – stwierdził główny badacz. Jennifer Mankoff, profesor w Szkole Informatyki i Inżynierii im. Paula G. Allena na Uniwersytecie Wisconsin. „Bardzo wierzę w wartość kont pierwszoosobowych, które pomagają nam zrozumieć pewne rzeczy. Ponieważ nasza grupa obejmuje dużą liczbę osób, które jako osoby niepełnosprawne mogą doświadczyć sztucznej inteligencji i zobaczyć, co zadziałało, a co nie, pomyśleliśmy mieliśmy niepowtarzalną okazję opowiedzieć historię i dowiedzieć się więcej na ten temat.
Grupa przedstawiła swoje badania w siedmiu krótkich artykułach, często łącząc doświadczenia w pojedyncze narracje, aby zachować anonimowość. Na przykład na pierwszym koncie Mia, która cierpi na sporadyczną mgłę mózgu, korzysta z witryny ChatPDF.com, która zawiera podsumowanie plików PDF, aby pomóc w pracy. Chociaż narzędzie to było czasami dokładne, często dawało „całkowicie błędne odpowiedzi”. W jednym przypadku narzędzie było zarówno niedokładne, jak i nieprzydatne, co zmieniło argumentację artykułu w taki sposób, że badacze powinni rozmawiać z opiekunami, a nie z osobami chorymi przewlekle. Mia była w stanie to zauważyć, ponieważ badacz dobrze znał artykuł, ale Mankoff stwierdził, że takie subtelne błędy należą do „najbardziej podstępnych” problemów w korzystaniu ze sztucznej inteligencji, ponieważ łatwo mogą pozostać niezauważone.
Jednak w tej samej winiecie Mia używała chatbotów do tworzenia i formatowania materiałów referencyjnych do badań, nad którymi pracowała, doświadczając mgły mózgowej. Modele AI wciąż popełniają błędy, ale w tym przypadku technologia okazała się przydatna.
Mankoff, który publicznie wypowiadał się na temat swojej diagnozy boreliozy, przyczynił się do powstania tej relacji. „Wykorzystanie sztucznej inteligencji do tego zadania nadal wymagało pracy, ale zmniejszyło obciążenie poznawcze. Przechodząc z zadania „generowania” do zadania „weryfikacji”, udało mi się uniknąć niektórych problemów z dostępnością” – powiedział Mankoff.
Wyniki innych testów wybranych przez badaczy były równie zróżnicowane:
- Jeden z autystycznych autorów odkrył, że sztuczna inteligencja pomaga w tworzeniu wiadomości na Slacku w pracy, bez konieczności spędzania dużej ilości czasu na martwieniu się o sformułowania. Współpracownicy stwierdzili, że wiadomości są „zautomatyzowane”, ale dzięki temu narzędziu autor poczuł się pewniej w tych interakcjach.
- Trzej autorzy próbowali wykorzystać narzędzia sztucznej inteligencji, aby zwiększyć dostępność treści, takich jak tabele do pracy naukowej lub pokaz slajdów dla zajęć. Programy AI były w stanie zidentyfikować zasady dostępności, ale nie były w stanie konsekwentnie ich stosować podczas tworzenia treści.
- Pomogły w tym autorowi narzędzia sztucznej inteligencji do generowania obrazów wyobraźnia (Niezdolność do wizualizacji) Interpretowanie obrazków z książek. Kiedy jednak za pomocą narzędzia AI stworzyli ilustrację przedstawiającą „osoby z różnymi niepełnosprawnościami, które wyglądają na szczęśliwe, ale nie na imprezie”, oprogramowanie mogło jedynie wyczarować naładowane obrazy osób na imprezie, które zawierały rozbieżności związane z umiejętnościami, np. jak bezcielesna dłoń. Spoczywa na bezcielesnej protezie nogi.
„Byłem zaskoczony, jak bardzo wyniki i wyniki różniły się w zależności od zadania” – powiedział główny autor. Kate Glazkow, doktorantka w Allen School na Uniwersytecie Wisconsin. „W niektórych przypadkach, takich jak tworzenie wizerunku osób niepełnosprawnych wyglądających na szczęśliwych, nawet po otrzymaniu specjalnej podpowiedzi – Czy możesz to zrobić w ten sposób? Wyniki nie osiągnęły tego, czego oczekiwali autorzy.
Naukowcy podkreślają, że potrzeba więcej pracy, aby opracować rozwiązania problemów ujawnionych w badaniu. Szczególnie złożona kwestia dotyczy opracowania nowych sposobów walidacji produktów narzędzi AI dla osób niepełnosprawnych, ponieważ w wielu przypadkach, gdy sztuczna inteligencja jest wykorzystywana do zapewnienia dostępności, dokument źródłowy lub wynik wygenerowany przez sztuczną inteligencję nie są dostępne. Stało się to w podsumowaniu możliwości ChatPDF udostępnionym dla „Mii” oraz wtedy, gdy „Jay”, który jest prawnie niewidomy, użył narzędzia AI do stworzenia kodu do wizualizacji danych. Sam nie był w stanie zweryfikować wyniku, ale jego kolega stwierdził, że „nie ma to żadnego sensu”. Częstotliwość błędów powodowanych przez sztuczną inteligencję „sprawia, że badania nad walidacją dostępu są szczególnie ważne” – stwierdził Mankoff.
Mankoff planuje także zbadać sposoby dokumentowania rodzajów niepełnosprawności i niedostępności występujących w treściach generowanych przez sztuczną inteligencję, a także zbadać problemy w innych obszarach, takich jak kod napisany przez sztuczną inteligencję.
„W miarę zmiany praktyk inżynierii oprogramowania istnieje ryzyko, że aplikacje i strony internetowe staną się mniej dostępne, jeśli nie zostaną wprowadzone dobre ustawienia domyślne” – stwierdził Glazko. „Na przykład, jeśli kod wygenerowany przez sztuczną inteligencję jest domyślnie dostępny, może to pomóc programistom rozpoznać i poprawić dostępność ich aplikacji i stron internetowych”.
Współautorami tej pracy są Momona Yamagamiktóry ukończył te badania jako pracownik naukowy ze stopniem doktora na Uniwersytecie Wisconsin w Allen College, a obecnie pracuje na Uniwersytecie Rice; Ashaka Desai, Kelly Avery Mack I Venkatesh PotluriWszyscy doktoranci Szkoły UW Allen; I Shuhai Shu, który ukończył tę pracę jako doktorant w School of Information na Uniwersytecie Wisconsin, a obecnie pracuje na MIT. Badanie to zostało sfinansowane przez Meta, Centrum badań i edukacji w zakresie dostępnych technologii i wiedzy specjalistycznej (CREATE), Google, grant NIDILRR ARRT i National Science Foundation.
Aby uzyskać więcej informacji prosimy o kontakt Glazko w [email protected] I Mankoffa V [email protected].
Tagi: Centrum Badań i Edukacji w zakresie Dostępnych Technologii i Doświadczenia • Jennifer Mankoff • Kate Glazkow • Szkoła Informatyki i Inżynierii im. Paula G. Allena
„Chcę być miłośnikiem telewizji. Certyfikowany entuzjasta popkultury. Stypendysta Twittera. Student amator.”
More Stories
TRUE NORTH uruchomiła nową platformę marki „Life's Different After” w ramach kampanii Today the Brave
Pomiar mowy ciała Wiadomości o Mirażu
W trakcie testu | Rower Giant Revolt 2025 ma dodatkowe schowki w dolnej rurze i twierdzi, że zapewnia większy komfort