Elon Musk a tisíc expertů volají po pauze ve vývoji umělé inteligence, aby ochránili lidstvo

Elon Musk a tisíc expertů volají po pauze ve vývoji umělé inteligence, aby ochránili lidstvo

Jak se chatbot ChatGPT neustále vyvíjí a mluví se o něm, stovky odborníků v oblasti umělé inteligence vyjadřují v otevřeném dopise znepokojení a žádají o šestiměsíční přestávku ve výzkumu výkonnějších nástrojů, než je ChatGPT4. Uvádějí, že některé systémy umělé inteligence jsou potenciálně vážnou hrozbou pro společnost a lidstvo, zejména kvůli nepředvídatelnosti těchto nástrojů, a to i pro jejich tvůrce, a rizikům pro pracovníky.

V posledních letech se umělá inteligence vyvíjela převratným a znepokojivým tempem a nebezpečně se přiblížila rizikům zdůrazňovaným ve sci-fi dílech. Elon Musk, spoluzakladatel a bývalý člen představenstva OpenAI, společnosti, která později vytvořila ChatGPT, varoval 3. prosince před riziky, která prototyp představuje. Ve zprávě na Twitterunapsal miliardář :

"ChatGPT je děsivý. Nejsme daleko od nebezpečně silné AI."

Méně výkonný než jeho nástupce, který se objevil krátce poté, 14. března. V ten den OpenAI spustila svou nejnovější verzi agenta, ChatGPT4, který je podle společnosti přesnější a je schopen interpretovat obrázky. Společnost navrhl to potvrzením že agent "je kreativnější a spolupracuje více než kdy dříve. Může generovat, upravovat a opakovat s uživateli kreativní a technické úkoly psaní, jako je psaní písní, psaní scénářů nebo učení se stylu psaní uživatele."

Na Světovém vládním summitu v Dubaji loni v únoru Musk volal vyvinout „pravidla nebo předpisy pro kontrolu vývoje umělé inteligence“, což je analogie s dopravou nebo lékařskou bezpečností.

Dans dopis z 28. března otevřený k podpisu a zveřejněný na stránkách Institutu budoucnosti života, zakladatele Tesly a SpaceX, je jedním ze stovek hlasů volajících po pauze ve výzkumu AI. Výběr médií není triviální, Musk je jedním z konzultantů institutu, který tvrdí, že odsuzuje existenční rizika, která AI pro lidstvo představuje, a žádá „vést transformační technologie ve prospěch života a pryč od extrémních rozsáhlých rizik“.

Pokud je mnoho signatářů dopisu ve střetu zájmů ve své kritice ChatGPT, pracujících zejména v konkurenčních společnostech OpenAI a Microsoft, jejichž vedení je monstrózní, jejich kritika je nicméně legitimní a znepokojující.

Signatáři říkají, že věří, že „lidstvo se může těšit z prosperující budoucnosti prostřednictvím umělé inteligence“ a hovoří o „vychutnávání léta umělé inteligence“ se systémy navrženými „k největšímu prospěchu ze všech“ a chtějí dát „společnosti“ šanci se přizpůsobit. možné pouze za podmínky, že se budeme chovat, jako když „společnost pozastavila jiné technologie s potenciálně katastrofálními důsledky pro ni“.

Na závěr metafory nabádají k pauze na základě zásady předběžné opatrnosti:

"Užijme si dlouhé léto s umělou inteligencí a nespěchejme nepřipraveni na podzim."

Riziko pro lidstvo: absence kontroly a reflexe

Tento pád by mohla uspíšit skutečnost, že v současné době neexistuje žádná možnost plné kontroly vývoje AI. Autoři dopisu uvádějí, že systémy umělé inteligence soutěžící s lidmi pravděpodobně představují hlubokou hrozbu pro společnost a lidstvo. Jako důkaz toho poukazují na vyčerpávající výzkum „uznávaný hlavními laboratořemi umělé inteligence“.

Vzhledem k zásadám vyvinutým v 2017 na konferenci Asilomar o umělé inteligencie (koordinováno Future of Life Institute), říkají, "pokročilá umělá inteligence by mohla představovat hlubokou změnu v historii života na Zemi a měla by být plánována a řízena s nezbytnou péčí a zdroji."

Navzdory těmto zásadám „tato úroveň plánování a řízení neexistuje“. Poukazují na to, že v posledních měsících se laboratoře uzavřely „v nekontrolovaném závodě ve vývoji a nasazení stále výkonnějších digitálních myslí, kterým nikdo – ani jejich tvůrci – nemůže spolehlivě porozumět, předvídat nebo ovládat“.

Taková rizika jsou zmíněna ve sci-fi dílech, která mají často tu zásluhu na nastolení etických otázek, zejména pokud jde o skloubení technologie a politické moci, ale také myslitelé jako Jacques Ellul nebo Georges Bernanos. První, historik, sociolog a protestantský teolog, byl potěšen přínosem technologie, která například umožňuje cestovat a „přijímat obrazy z celého světa“:

"Takže máš před sebou svobodný vesmír."

Ale autor knih „Technický systém“ nebo „Technologický bluf“ odhaduje, že automobil dotlačil například tři miliony Pařížanů, aby každý rok odjeli na dovolenou ke břehům Středozemního moře jako masa, aniž by přemýšleli o svém pohybu:

"V technické společnosti, jako je ta naše, je velmi obtížné, aby byl muž zodpovědný."

Ellul zmiňuje zdůvodnění ředitele nacistického tábora Bergen-Belsen během norimberských procesů, podle kterého neměl čas přemýšlet o lidech, kteří umírali, protože byl zaměstnán technickými starostmi pecí. Stále výkonnější technologické nástroje znamenají, že i přes své přednosti se sám člověk stává nástrojem toho, co mělo být prostředkem.

Katolický spisovatel Georges Bernanos ve své předzvěsti nevaruje méně "Francie proti robotům", publikované v roce 1947, prohlašující, že hlavním nebezpečím je absence úvahy o technice, zejména těmito slovy, která se stala poměrně slavnými:

"Nebezpečí není v množení strojů, ale ve stále se zvyšujícím počtu mužů zvyklých od dětství toužit jen po tom, co mohou stroje dát."

V dostatečném předstihu upozorní na objevení se umělé inteligence a na takovou sílu snižující člověka do pozadí, dokonce až do úrovně zbytečnosti.

Riziko pro informace a trh práce

Bernanos oponoval „civilizaci strojů [která] je tou kvantitou“ a „civilizací kvality“.

Obavy vyjádřené signatáři dopisu, kteří pozorují skutečnost, že „současné systémy AI se dnes stávají konkurenceschopnými na lidské úrovni pro obecné úkoly“. Kladou základní otázku pro budoucnost demokratické společnosti:

"Máme nechat stroje zaplavit naše informační kanály propagandou a lžemi? Měli bychom automatizovat všechny práce, včetně těch, které nás nejvíce naplňují?"

Toto je varovný signál, který se velmi aktualizovaným způsobem podobá tomu, co již Pavel VI jeho encyklika Populorum progressio v roce 1967, připomínající, že technologie by měla sloužit člověku.

Papež v bodě 20 encykliky zdůraznil, že „jestliže úsilí o rozvoj vyžaduje stále více techniků, vyžaduje to ještě více moudrých mužů hluboké reflexe, hledajících nový humanismus, který umožní modernímu člověku najít sám sebe, za předpokladu, že vyšší hodnoty lásky, přátelství, modlitby a kontemplace."

Zájem, který vzhledem k obtížím, které mají konstruktéři při dokonalém zvládnutí svých nejvýkonnějších nástrojů umělé inteligence, nabývá zvláštního významu. Techniků je mnoho, ale morální reflexe byla příliš zapomenuta, což vedlo k pokračování špatně koncipovaného vývoje.

Důsledkem toho je, že umělá inteligence ohrožuje člověka, zatímco „program vytvořený ke zvýšení produkce“, říká Pavel VI. v bodě 20 svého dopisu, by tu měl být proto, aby „osvobodil člověka z jeho otroctví [na plán du travail] a umožnil mu být sám je činitelem odpovědným za své hmotné blaho, za svůj mravní pokrok“.

Encyklika těmito slovy varovala před technizací, která má obohatit společnost:

"Říct: rozvoj se ve skutečnosti musí zabývat stejně tak sociálním pokrokem jako ekonomickým růstem. Nestačí zvýšit společné bohatství, aby bylo spravedlivě rozděleno. Nestačí podporovat technologii, protože Zemi je humánnější." obývat."

Toto prohlášení je potvrzeno nedávnou studií Goldman Sachs zveřejněnou 26. března, která naznačuje, že 300 milionů pracovních míst by mohlo být celosvětově ztraceno kvůli používání AI, tj. 18 % mas.

Obavy sdílené autory dopisu, kteří salutují Otevřete prohlášení AI z 24. února, že "V určitém okamžiku může být vyžadována nezávislá revize před zahájením výcviku budoucích systémů." Když z tohoto prohlášení vyvozují závěr, slyší, že jde pouze o vágní slib a píší:

"Proto žádáme všechny laboratoře umělé inteligence, aby okamžitě na nejméně šest měsíců pozastavily výcvik systémů umělé inteligence, které jsou výkonnější než GPT-4. Tato přestávka by měla být veřejná a ověřitelná a měla by zahrnovat všechny klíčové hráče. Pokud taková přestávka nemůže být rychle zaveden, vlády by měly zasáhnout a zavést moratorium."

Jean Sarpedon

Obrazový kredit: Shutterstock / LookerStudio

V kategorii Věda >



Nejnovější zprávy >