Przecław News

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej w Wiadomościach Przecławia.

Założyciel ChatGPT szuka pomocy u hakerów |  Wiek informacji

Założyciel ChatGPT szuka pomocy u hakerów | Wiek informacji

OpenAI szuka pomocy etycznych hakerów w swoim nowym programie nagród za błędy, który oferuje do 30 000 USD (20 000 USD) tym, którzy odkryją luki w zabezpieczeniach swojego wiodącego chatbota, ChatGPT.

Po pierwszym poważnym wycieku danych ChatGPT pod koniec marca, twórca popularnego narzędzia do czatu OpenAI ogłosił program nagród za błędy, który zaprasza „badaczy bezpieczeństwa, etycznych hakerów i entuzjastów technologii” do pomocy w identyfikacji luk w swoich systemach.

Program oferuje nagrody w ruchomej skali od 300 USD (200 USD) za „znaleziska niskiego ryzyka” do 30 000 USD (20 000 USD) za „nadzwyczajne znaleziska”.

„Ponieważ tworzymy bezpieczne, niezawodne i godne zaufania technologie i usługi, potrzebujemy Twojej pomocy” — powiedział OpenAI.

Zachęcamy do zgłaszania luk w zabezpieczeniach, błędów lub luk w zabezpieczeniach, które odkryjesz w naszych systemach.

„Dzieląc się swoimi wynikami, odegrasz kluczową rolę w uczynieniu naszej technologii bezpieczniejszą dla wszystkich” – dodała.

OpenAI zostało uruchomione we współpracy z platformą crowdsourcingu bezpieczeństwa BugCrowd
„Nagrody za błędy” nie tylko za luki w samym ChatGPT, ale także w celach API, kluczach API i usługach dla organizacji badawczej OpenAI.

Firma szczegółowo wymieniła loginy, rejestracje i wtyczki jako obszary zainteresowania programu bounty oraz dostarczyła całą serię przykładów, które mieszczą się w zakresie projektu, w tym ujawnienie danych, problemy z uwierzytelnianiem/autoryzacją oraz płatności kwestie.

OpenAI dokłada wszelkich starań, aby sztuczna inteligencja była bezpieczna i korzystna dla wszystkich.

„Chociaż ciężko pracujemy, aby zapobiegać zagrożeniom, nie jesteśmy w stanie przewidzieć wszystkich sposobów, w jakie ludzie używają lub nadużywają naszej technologii w prawdziwym świecie” – powiedział OpenAI.

„Cenimy wkład etycznych hakerów, którzy pomagają nam utrzymać wysokie standardy prywatności i bezpieczeństwa dla naszych użytkowników i technologii” – powiedziała.

Lider AI poprosił również o pomoc w zakresie potencjalnego ujawnienia danych za pośrednictwem dostawców zewnętrznych.

READ  Sezon na głębokość i nie tylko

w tym Strona programu nagród za błędyOpenAI dostarczyło przykłady kwalifikujących się dostawców w kategorii firm zewnętrznych programu, w tym Google Workspace, Trello, Jira, Monday.com, Stripe, Hubspot i innych.

Firma była również rygorystyczna w identyfikowaniu obszarów, które nie kwalifikowałyby się do programu — takich jak ataki siłowe i ataki spowodowane wyciekiem danych uwierzytelniających — a także ostrzegała uczestników o potencjalnych względach prawnych związanych z działaniami obejmującymi produkty innych firm.

„Proszę zrozumieć, że chociaż możemy przekazać twoje badania nad systemami i usługami OpenAI, nie możemy przekazać twoich wysiłków produktom innych firm ani zagwarantować, że nie zostaną podjęte przeciwko tobie kroki prawne”, powiedział OpenAI.

„Będziecie oczekiwać, jak zawsze, przestrzegania wszystkich obowiązujących przepisów”.

Do tej pory 29 luk w zabezpieczeniach zostało nagrodzonych w ramach programu bug bounty, a średnia wypłata wyniosła ponad 1000 USD (694,73 USD).

„Graj uczciwie i pamiętaj, że możemy zobaczyć, co robisz” – powiedział OpenAI.

Wszystkie oczy skierowane są na ChatGPT

Mówi się, że ChatGPT osiągnął 100 milionów aktywnych użytkowników tylko w styczniu — i chociaż popularność chatbota ugruntowała pozycję OpenAI jako lidera w rozwoju sztucznej inteligencji, to jednocześnie sprawiła, że ​​firma została szeroko zbadana przez ekspertów ds. bezpieczeństwa i branży.

W marcu ChatGPT doświadczył pierwszego poważnego wycieku danych, kiedy ograniczona historia czatów użytkownika i informacje o płatnościach zostały ujawnione z powodu błędu.

Wkrótce potem Włochy wydały tymczasowy zakaz ChatGPT ze względu na obawy dotyczące ich praktyk w zakresie prywatności danych i marcowego naruszenia danych.

Tymczasem firmy zajmujące się sztuczną inteligencją znajdują się pod presją, aby spowolnić rozwój sztucznej inteligencji „wymykającej się spod kontroli” w związku z rosnącymi obawami dotyczącymi etycznych i ekonomicznych implikacji tej technologii.

W liście otwartym podpisanym przez ponad 1300 naukowców, ekspertów technologicznych i biznesowych wybitne głosy, takie jak Elon Musk i Steve Wozniak, poparły wezwania do zamrożenia rozwoju sztucznej inteligencji na sześć miesięcy.

READ  Badanie ujawniło związek pomiędzy relaksacją Zenera

Od czasu opublikowania tego marcowego listu dyrektor generalny OpenAI, Sam Altman, potwierdził, że firma nie szkoli GPT-5 — powszechnie oczekiwanego następcy modelu językowego AI GPT-4.

„Myślę, że w liście brakuje technicznych niuansów dotyczących miejsca, w którym musimy się zatrzymać… Wcześniejsza wersja listu twierdzi, że teraz prowadzimy szkolenie GPT-5. Nie jesteśmy i nie będziemy przez jakiś czas”, Altman powiedział.

„Więc w tym sensie było to trochę głupie. Robimy rzeczy na szczycie GPT-4, które moim zdaniem mają wiele problemów związanych z bezpieczeństwem, którymi musimy się zająć” – powiedział.

Oprócz uruchomienia nowego programu nagród za błędy, OpenAI ogłosiło, że obecnie prowadzi rekrutację Odblokuj role zabezpieczeń Dostępne na firmowej stronie kariery.