w

ChatGPT szuka rozwiązania, które pozwoli zapobiec apokalipsie sztucznej inteligencji

Twórcy ChatuGPT – OpenAI – zgłosili się do organów regulacyjnych, które ograniczyłyby możliwości sztucznej inteligencji.


Na blogu założyciela OpenAI – Sama Altmana – pojawił się wpis o regulacji superinteligentnych programów. Jest to znacznie silniejszy element technologii od czegokolwiek, co kiedykolwiek wcześniej zostało stworzone.

Osoby znane w środowisku technologicznym, jak Elon Musk czy Steve Wozniak – współzałożyciel Apple – wypowiadają się w stronę twórców odpowiedzialnych za rozwój sztucznej inteligencji o tym, że następuje on zbyt szybko i nie ma żadnych barier. Co ciekawe, właściciel OpenAI zgadza się z tym stwierdzeniem.

Altman został niedawno przesłuchany przez Kongres USA, w którym opowiedział się za wprowadzeniem większej liczby regulacji dotyczących tego środowiska.

AI porównywalne z energią nuklearną

Sam Altman wraz z innymi autorami porównuje rozwój sztucznej inteligencji do rozwoju energii jądrowej i biologii syntetycznej. Środki zapobiegawcze nie mogą być „reaktywne” i zamiast tego będą musiały zostać wprowadzone już teraz w ramach przygotowań.

Głównym tego powodem jest zapobieganie wszelkim skutkom powstania superinteligentnej sztucznej inteligencji, która będzie w stanie zagrozić ludzkości. Nie oznacza to jednak, że OpenAI zaprzestanie prac i rozwój ustanie.

Altman w swoim blogu przyznaje jednak, że powstrzymywanie prac nad sztuczną inteligencją byłoby nieintuicyjnie, ryzykowane i trudne, a biorąc pod uwagę to, że projekty open-source zyskują na popularności i stają się coraz bardziej zaawansowane, zdaje się, że powstrzymanie ich tworzenia byłoby wręcz niemożliwe.

OpenAI chce, aby rozwój był możliwy do kontrolowania

OpenAI chce, aby wprowadzone środki były na wypadek, gdyby superinteligencja zaczęła stanowić problem dla całej ludzkości. Jednym z podanych przykładów jest IAEA, Międzynarodowa Agencja Energii Atomowej, będąca organem wielorządowym, który chce, aby energia jądrowa była wykorzystywana w sposób pokojowy.

Innym rozwiązaniem, które zaproponował Altman, jest po prostu ograniczenie tego, jak bardzo rozwinięta mogłaby zostać sztuczna inteligencja w ciągu jednego roku.

Moglibyśmy wspólnie uzgodnić, że tempo wzrostu możliwości AI na granicy jest ograniczone do określonego tempa rocznie.

Oczywiście poszczególne firmy powinny przestrzegać niezwykle wysokich standardów odpowiedzialnego działania.

Sztuczna inteligencja przeżywa obecnie boom – Google czy wiele innych firm zaczynają integrować ją ze wszystkim – od systemów operacyjnych po wyszukiwarki.

Reklama
DołączObserwuj
Więcej z Rozrywka