Zdjęcie: VCG
Wielu entuzjastów sztucznej inteligencji miało kolejną nieprzespaną noc, gdy w poniedziałek OpenAI ogłosiło nowy, przełomowy model, który wzbudził zainteresowanie profesjonalistów z branży. Model ten może tłumaczyć ponad 50 języków w czasie rzeczywistym i jest bardziej „ludzki” – z czasem reakcji porównywalnym z czasem reakcji człowieka. Poza tym potrafi śpiewać, rozpoznawać emocje i przekazywać użytkownikom „wartości emocjonalne” lepiej niż człowiek.
W ogłoszeniu OpenAI stwierdziło, że nowy model GPT-4o zapewnia inteligencję na poziomie GPT-4, ale jest znacznie szybszy i ulepszył swoje możliwości w zakresie tekstu, głosu i obrazu.
Kiedy magazyn Global Times zapytał OpenAI, co potrafi GPT-4o, najnowszy model udzielił następującej odpowiedzi: „Oto niektóre z podstawowych możliwości GPT-4o, takie jak rozumienie i generowanie języka naturalnego: GPT-4o przoduje w rozumieniu i generowaniu komunikatów przypominających ludzkie tekst, umożliwiając mu prowadzenie rozmów, odpowiadanie na pytania i udzielanie szczegółowych wyjaśnień.” Firma stwierdziła, że GPT-4o szczególnie lepiej radzi sobie z obrazem i dźwiękiem niż jakiekolwiek istniejące modele.
Nowy model, nazywany przez internautów „osobistym asystentem cyfrowym”, może prowadzić rozmowy mówione w czasie rzeczywistym. Na przykład podczas poniedziałkowej demonstracji dyrektorzy OpenAI poprosili ją o rozwiązanie problemu matematycznego, a także opowiedzenie bajki na dobranoc z różnym poziomem „dramatyzmu” w jej głosie. Modelka przekonująco wywiązała się z zadań.
Następnie sztuczna inteligencja opowiedziała historię stereotypowym głosem robota, zgodnie z prośbą kierownictwa, a następnie ponownie w sposób liryczny, który rozśmieszył wszystkich.
Cały proces komunikacji przebiegł gładko i naturalnie, nie różnił się niczym od rozmowy z człowiekiem — w pewnym momencie, słysząc westchnienie jednego z dyrektorów, GPT-4o powiedział mu, żeby się „uspokoił”, żartując: „Nie jesteś próżnia.” odkurzacz.”
Mira Moratti, dyrektor ds. technologii w OpenAI, powiedziała, że zaktualizowana wersja ChatGPT będzie teraz wyposażona w pamięć, co oznacza, że będzie mogła uczyć się na podstawie poprzednich rozmów z użytkownikami i wykonywać tłumaczenia w czasie rzeczywistym – podaje CNN. Według firmy narzędzie obsługuje obecnie ponad 50 języków.
Niektórzy internauci na platformie mediów społecznościowych
Jeden z internautów powiedział: „Wyobraźcie sobie, że dacie to każdemu uczniowi na świecie”. „Przyszłość jest bardzo jasna”.
„Najbardziej imponującą częścią była demonstracja na żywo” – powiedział we wtorek Global Times mieszkaniec Pekinu o nazwisku Chen, gdy z samego rana wypróbowywał nowy model. „Podczas rozmowy głosowej z GPT-4o trzy osoby losowo przerwały, ale GPT-4o szybko zareagował.” Duży i z bardzo bogatym akcentem, przypominał rozmowę z człowiekiem.”
Ponieważ wielu jej przyjaciół zajmuje się tłumaczeniami pisemnymi i ustnymi, Chen stwierdziła z pewnym niepokojem: „GPT-4o służyła również jako tłumacz podczas wydarzenia, płynnie tłumacząc między językiem włoskim i angielskim. Czuła, że tłumacze mogliby to zrobić „. Wkrótce bezrobotny.”
Shen Yang, profesor studiujący sztuczną inteligencję i media na Uniwersytecie Tsinghua w Pekinie, powiedział we wtorek Global Times, że głównym celem tej aktualizacji jest poszerzenie bazy użytkowników OpenAI poprzez współpracę z Siri w telefonie iPhone, tak aby baza użytkowników mogła się poszerzać z obecnych 100 milionów aktywnych użytkowników na całym świecie.
„To uaktualnienie oznacza przejście od symulacji świadomości do symulacji życia, z naciskiem na dźwięki, obrazy i efekty wizualne. Ponadto istnieje ogromny potencjał rynkowy w urządzeniach wykorzystujących sztuczną inteligencję, w których GPT-4o odegra rolę w lepszym zrozumieniu świata. – powiedział Shen.
Zdaniem eksperta dla sztucznej inteligencji najważniejsze są jej możliwości logiczne i wywiadowcze. Shen uważa, że nowy model jest obecnie „równoważny poziomowi doktoratu” pod względem umiejętności rozwiązywania problemów. Jeśli chodzi o przetwarzanie obrazu, ulepszenia są dość zauważalne, w tym poprawiona spójność obrazu, zmniejszone złudzenia AI i poprawiona integracja scen tekstowych i graficznych.
„Myślę, że między Chinami a Stanami Zjednoczonymi już istnieje przepaść [in terms of AI technology]„Zawsze nalegałem na to” – powiedział Global Times w poprzednim wywiadzie Zhu Hongyi, założyciel i prezes 360 Security Technology. „Tylko rozpoznając lukę, będziemy wiedzieć, jak nadrobić zaległości. Jeśli nie zauważysz, że istnieje luka i pomyślisz, że wszyscy jesteśmy daleko przed nami, nie będzie szans na dogonienie”.
Zhou powiedział jednak, że główna różnica między Chinami a Stanami Zjednoczonymi w zakresie sztucznej inteligencji polega na „zdefiniowaniu trendu technicznego”, ale gdy trend zostanie zidentyfikowany, przy dużej przewadze Chin w zakresie zdolności szybkiego uczenia się, różnica zostanie zmniejszona w ciągu roku lub dwa. . Zhou zauważył, że rok 2024 może stać się dla Chin „rokiem zastosowań” w dziedzinie sztucznej inteligencji.
„Chcę być miłośnikiem telewizji. Certyfikowany entuzjasta popkultury. Stypendysta Twittera. Student amator.”
More Stories
TRUE NORTH uruchomiła nową platformę marki „Life's Different After” w ramach kampanii Today the Brave
Pomiar mowy ciała Wiadomości o Mirażu
W trakcie testu | Rower Giant Revolt 2025 ma dodatkowe schowki w dolnej rurze i twierdzi, że zapewnia większy komfort