Przecław News

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej w Wiadomościach Przecławia.

Od sztucznej inteligencji do Z: podstawowe warunki dotyczące poruszania się po reklamach

Od sztucznej inteligencji do Z: podstawowe warunki dotyczące poruszania się po reklamach


Deepmind/Unsplash/Artysta: Champ Panupong TechawongthawonI CC BY-NC-SA

Sztuczna inteligencja coraz częściej pojawia się w naszym życiu. Nie ogranicza się już do niektórych branż lub instytucji badawczych; Sztuczna inteligencja jest już dostępna dla wszystkich.

Autorski


  • Letnia Fatima

    Research Fellow w AI and Data Analytics Center, RMIT University


  • Kwok Leung Ung

    Dyrektor Centrum Analizy Danych i Sztucznej Inteligencji Przedsiębiorstwa, Uniwersytet RMIT

Trudno jest uniknąć zalewu treści tworzonych przez sztuczną inteligencję, a jeszcze trudniej zrozumieć wiele używanych terminów. Ale nie możemy rozmawiać o sztucznej inteligencji bez zrozumienia koncepcji, które się za nią kryją.

Przygotowaliśmy glosariusz terminów, które naszym zdaniem każdy powinien znać, jeśli chce być na bieżąco.

algorytm

algorytm Zestaw instrukcji przekazywanych komputerowi w celu rozwiązania problemu lub wykonania obliczeń, które przekształcają dane w przydatne informacje.

Problem z wyrównaniem

Problem wyrównania odnosi się do rozbieżności między naszymi zamierzonymi celami dla systemu AI a wynikami, które generuje. Funkcjonowanie dewiacyjnego systemu można rozwinąć, ale zachowuje się on w sposób sprzeczny z ludzkimi wartościami. Widzieliśmy tego przykład w 2015 roku Kiedy stwierdzono, że algorytm rozpoznawania obrazu używany przez Google Images automatycznie oznacza zdjęcia czarnoskórych ludzi jako „goryle”.

sztuczna inteligencja ogólna (AGI)

sztuczna inteligencja ogólna Odnosi się do hipotetycznego punktu w przyszłości, w którym oczekuje się, że sztuczna inteligencja dorówna (lub przewyższy) możliwości poznawcze ludzi. Większość ekspertów AI zgadza się, że tak się stanie, ale nie zgadzają się co do konkretnych szczegółów, takich jak kiedy to się stanie i czy doprowadzi to do powstania w pełni autonomicznych systemów AI.

sztuczna sieć neuronowa (SSN)

Sztuczne sieci neuronowe to algorytmy komputerowe wykorzystywane w ramach gałęzi sztucznej inteligencji tzw Głęboka nauka. Składa się z warstw połączonych ze sobą węzłów w sposób mimiczny obwody neuronowe z ludzkiego mózgu.

duże dane

Big data odnosi się do zbiorów danych, które są bardziej masywne i złożone niż tradycyjne dane. Te zestawy danych, które znacznie przekraczają pojemność komputerów domowych, pomogły istniejącym modelom sztucznej inteligencji działać z wysokim poziomem dokładności.

Big data można odróżnić za pomocą czterech przeciwieństw: „Objętość” odnosi się do całkowitej ilości danych, „Szybkość” odnosi się do szybkości wzrostu danych, „Rozdzielczość” odnosi się do złożoności danych, a „Różnorodność” odnosi się do różnych formaty danych, w których się znajduje.

Chiński pokój

the Chiński pokój Eksperyment myślowy został po raz pierwszy zaproponowany przez amerykańskiego filozofa Johna Searle’a w 1980 roku. Twierdzi on, że program komputerowy, bez względu na to, jak sprytnie zaprojektowany, nigdy nie będzie świadomy i nadal nie będzie w stanie naprawdę zrozumieć swojego zachowania jako ludzkiej puszki.

READ  Tajemniczy Mate 60 Pro Huaweia osiąga prędkość bezprzewodową porównywalną z iPhone'ami Apple

Ta koncepcja często pojawia się w rozmowach na temat narzędzi sztucznej inteligencji, takich jak ChatGPT, które wydają się wyświetlać atrybuty samoświadomego podmiotu – ale w rzeczywistości dostarczają dane wyjściowe tylko na podstawie przewidywań dokonanych przez podstawowy model.

Głęboka nauka

Głębokie uczenie się jest kategorią w gałęzi uczenia maszynowego sztucznej inteligencji. Systemy głębokiego uczenia wykorzystują zaawansowane sieci neuronowe i mogą przetwarzać duże ilości złożonych danych w celu osiągnięcia większej dokładności.

Systemy te dobrze radzą sobie ze stosunkowo złożonymi zadaniami, a nawet mogą wykazywać inteligentne zachowania podobne do ludzkich.

model dyfuzyjny

Model dyfuzyjny to model sztucznej inteligencji, który uczy się, dodając losowy „szum” do zestawu danych treningowych przed ich usunięciem, a następnie oceniając różnice. Celem jest natychmiastowe rozpoznanie podstawowych wzorców lub relacji w danych, które nie są oczywiste.

Modele te mają na celu samokorygowanie się w miarę napotykania nowych danych i dlatego są szczególnie przydatne w sytuacjach, w których występuje niepewność lub gdy problem jest bardzo złożony.

AI można wytłumaczyć

Wyjaśnialna sztuczna inteligencja to wschodząca, interdyscyplinarna dziedzina zajmująca się tworzeniem sposobów, które On wzrasta Zaufanie użytkowników do działania systemów sztucznej inteligencji.

Ze względu na nieodłączną złożoność niektórych modeli sztucznej inteligencji, ich wewnętrzne procedury są często nieprzejrzyste i nie możemy z całą pewnością stwierdzić, dlaczego generują takie dane wyjściowe. Wyjaśnialna sztuczna inteligencja ma na celu uczynienie systemów „czarnych skrzynek” bardziej przejrzystymi.

Generatywna sztuczna inteligencja

Są to systemy sztucznej inteligencji, które generują nowe treści — w tym treści tekstowe, graficzne, audio i wideo — w odpowiedzi na monity. Typowe przykłady to ChatGPT, DALL-E 2 i Midjourney.

hashtag

Etykietowanie danych to proces oznaczania punktów danych, aby pomóc modelowi AI nadać sens danym. Obejmuje to definiowanie struktur danych (takich jak obraz, tekst, dźwięk lub wideo) oraz dodawanie etykiet (takich jak znaczniki i kategorie) do danych.

Ludzie dokonują znakowania, zanim rozpocznie się uczenie maszynowe. Oznaczone dane są podzielone na odrębne zestawy danych na potrzeby uczenia, sprawdzania poprawności i testowania.

READ  Testowaliśmy nianię eufy E210 Spaceview Pro przez cztery tygodnie. Oto nasz werdykt

Zbiór treningowy jest wprowadzany do systemu uczącego. Zestaw sprawdzania poprawności służy do sprawdzania, czy model działa zgodnie z oczekiwaniami i kiedy można zatrzymać dostrajanie i uczenie parametrów. Zestaw testów służy do oceny wydajności ostatecznego modelu.

Model dużego języka (LLM)

Językowe duże modele (LLM) są trenowane na ogromnych ilościach nieoznakowanego tekstu. Analizują dane, uczą się wzorców między słowami i mogą generować reakcje podobne do ludzkich. Niektóre przykłady systemów AI wykorzystujących duże modele językowe to seria GPT OpenAI oraz serie BERT i LaMDA firmy Google.

nauczanie maszynowe

Uczenie maszynowe to gałąź sztucznej inteligencji, która obejmuje szkolenie systemów sztucznej inteligencji, aby były w stanie analizować dane, uczyć się wzorców i przewidywać bez konkretnych instrukcji ludzkich.

Przetwarzanie języka naturalnego (NLP)

Podczas gdy modele makrojęzykowe są specyficznym typem modelu sztucznej inteligencji wykorzystywanego do zadań związanych z językiem, przetwarzanie języka naturalnego jest szerszą dziedziną sztucznej inteligencji, która koncentruje się na zdolności maszyn do uczenia się, rozumienia i tworzenia ludzkiego języka.

granica

Parametry to ustawienia używane do dostosowywania modeli uczenia maszynowego. Pomyśl o tym jako o zaprogramowanych wagach i odchyleniach, których model używa podczas przewidywania lub wykonywania zadania.

Ponieważ parametry określają, w jaki sposób model przetwarza i analizuje dane, określają również jego wydajność. Przykładem parametru jest liczba neuronów w danej warstwie sieci neuronowej. Zwiększenie liczby neuronów pozwoli sieci neuronowej przetwarzać bardziej złożone zadania – ale kompromisem będzie większy czas obliczeń i wyższe koszty.

Odpowiedzialna sztuczna inteligencja

Odpowiedzialny ruch sztucznej inteligencji opowiada się za rozwojem i wdrażaniem systemów sztucznej inteligencji w sposób skoncentrowany na człowieku.

Jednym z aspektów tego jest osadzanie systemów sztucznej inteligencji z regułami, które sprawiają, że są one zgodne z zasadami etycznymi. To (w idealnym przypadku) uniemożliwiłoby im tworzenie wyników, które są stronnicze, dyskryminujące lub mogłyby w inny sposób prowadzić do szkodliwych rezultatów.

analiza nastrojów

Analiza nastrojów to technika przetwarzania języka naturalnego używana do identyfikacji i interpretacji emocji Emocje za tekstem. Przechwytuje ukryte informacje, takie jak na przykład akcent autora oraz to, jak pozytywne lub negatywne jest to wyrażenie.

Nadzorowana nauka

Uczenie nadzorowane to podejście do uczenia maszynowego, w którym oznaczone dane są wykorzystywane do trenowania algorytmu w celu przewidywania. Algorytm uczy się dopasowywać oznaczone dane wejściowe do poprawnych danych wyjściowych. Po uczeniu się na dużej liczbie przykładów może nadal przewidywać, gdy zostaną przedstawione nowe dane.

READ  Badanie ujawnia nowy model diagnostyczny raka pęcherza moczowego oparty na kluczowych genach mitochondrialnych

dane treningowe

Dane szkoleniowe to (zwykle oznaczone) dane używane do uczenia systemów sztucznej inteligencji, jak dokonywać prognoz. Dokładność i reprezentatywność danych uczących ma istotny wpływ na efektywność modelu.

adapter

Transformer jest rodzajem modelu głębokiego uczenia się, wykorzystywanego głównie w zadaniach związanych z przetwarzaniem języka naturalnego.

Konwerter jest przeznaczony do przetwarzania danych serializowanych, takich jak tekst w języku naturalnym, i uczenia się, w jaki sposób różne części odnoszą się do siebie. Można to porównać do tego, jak osoba czytająca zdanie zwraca uwagę na kolejność słów, aby zrozumieć znaczenie zdania jako całości.

Jednym z takich przykładów jest generatywny wstępnie wyszkolony transformator (GPT), na którym działa chatbot ChatGPT. Paradygmat GPT wykorzystuje transformator do uczenia się z dużego zestawu nieoznakowanych tekstów.

Test Turinga

Test Turinga to koncepcja inteligencji maszynowej, która została po raz pierwszy wprowadzona przez informatyka Alana Turinga w 1950 roku.

Jest sformułowany jako sposób na określenie, czy komputer może wyświetlać ludzką inteligencję. W teście dane wyjściowe komputera i dane wyjściowe człowieka są porównywane przez osobę oceniającą. Jeśli wyjścia są uważane za nie do odróżnienia, oznacza to, że komputer przeszedł test.

Google lambda i Open AI czat Zgłoszono jednak, że przeszedł test Turinga mówią krytycy Wyniki ujawniają ograniczone zastosowanie testu do porównania inteligencji człowieka i komputera.

Edukacja bez nadzoru

Uczenie bez nadzoru to podejście do uczenia maszynowego, w którym algorytmy są szkolone na nieoznakowanych danych. Bez interwencji człowieka system bada wzorce w danych w celu odkrycia niemożliwych do zidentyfikowania wzorców, które można wykorzystać do dalszej analizy.

Rozmowa

Kok-Leong Ong otrzymuje fundusze od NHMRC, MRFF i CSIRO.

Samar Fatima nie pracuje, nie konsultuje się, nie posiada udziałów ani nie otrzymuje finansowania od żadnej firmy lub organizacji, która skorzystałaby z tego artykułu, i nie ujawniła żadnych istotnych powiązań po jej nominacji akademickiej.

/ Dzięki uprzejmości The Conversation. Ten materiał od oryginalnej organizacji/autora(ów) może dotyczyć konkretnego momentu i został zredagowany pod kątem przejrzystości, stylu i długości. Mirage.News nie zajmuje stanowisk ani stron korporacyjnych, a wszystkie opinie, stanowiska i wnioski wyrażone w niniejszym dokumencie są wyłącznie poglądami autora (autorów).