Fra Fox News. Tipset av Kirkehøyden.
AI-ekspert advarer om at Elon Musks signerte brev ikke går langt nok, sier "bokstavelig talt alle på jorden vil dø".
Eliezer Yudkowsky skriver at avansert AI vil drepe alt levende liv på jorden og må stenges ned.
Ledere ber om midlertidig stans i utviklingen av kunstig intelligens
Fox News-korrespondent Matt Finn har det siste om virkningen av AI-teknologi som noen sier kan overgå mennesker på "Spesial Report".
En ekspert på kunstig intelligens med mer enn to tiårs erfaring med å studere AI-sikkerhet sa at et åpent brev som ber om et seks måneders moratorium for utvikling av kraftige AI-systemer ikke går langt nok.
Eliezer Yudkowsky, en beslutningsteoretiker ved Machine Intelligence Research Institute, skrev i en nylig artikkel at den seks måneder lange "pausen" med å utvikle "AI-systemer kraftigere enn GPT-4" etterlyst av Tesla-sjef Elon Musk og hundrevis av andre innovatører og eksperter undervurderer «alvorligheten i situasjonen». Han ville gå videre og implementere et moratorium på nye store AI-læringsmodeller som er «ubestemt og verdensomspennende».
Brevet, utstedt av Future of Life Institute og signert av mer enn 1000 mennesker, inkludert Musk og Apples medgründer Steve Wozniak, argumenterte for at sikkerhetsprotokoller må utvikles av uavhengige tilsynsmenn for å lede fremtiden til AI-systemer.
"Kraftige AI-systemer bør utvikles først når vi er sikre på at effektene deres vil være positive og risikoene deres vil være håndterbare," heter det i brevet. Yudkowsky mener dette er utilstrekkelig.
ELON MUSK, APPLE MEDGRUNNER, ANDRE TEKNISKE EKSPERTER KALLER TIL PAUSE PÅ 'GIANT AI EXPERIMENTS': 'DANGEROUS RACE'
OpenAI ChatGPT sett på mobil med AI Brain sett på skjermen i Brussel 22. januar 2023.
"Nøkkelspørsmålet er ikke "menneskelig-konkurransedyktig" intelligens (som det åpne brevet sier); det er hva som skjer etter at AI blir smartere enn menneskelig intelligens," skrev Yudkowsky for Time.
"Mange forskere som er sterkt inne på disse problemene, inkludert meg selv, forventer at det mest sannsynlige resultatet av å bygge en overmenneskelig smart AI, under noe fjernt som de nåværende omstendighetene, er at bokstavelig talt alle på jorden vil dø," hevder han. "Ikke som i 'kanskje muligens en fjern sjanse', men som i 'det er det åpenbare som ville skje'."
KUNSTIG INTELLIGENS 'GUDFADER' OM MULIGHETEN FOR AT AI UTSLETTER MENNESKEHETEN: 'DET ER IKKE UTENKELIG'
OpenAI-sjef Sam Altman taler under en hovedtale som kunngjør ChatGPT-integrasjon for Bing hos Microsoft i Redmond, Washington, 7. februar 2023. OpenAIs nye GPT-4-læringsmodell er det mest avanserte AI-systemet som til nå er utviklet, og er i stand til å generere, redigere og iterasjon med brukere på kreative og tekniske skriveoppgaver.
For Yudkowsky er problemet at en kunstig intelligens som er mer intelligent enn mennesker, kan være ulydig dens skapere og ikke bry seg om menneskeliv. Ikke tenk "Terminator" - "Visualiser en hel fremmed sivilisasjon, tenk i millioner av ganger menneskelige hastigheter, i utgangspunktet begrenset til datamaskiner - i en verden av skapninger som fra sitt perspektiv er veldig dumme og veldig sakte," skriver han.
Yudkowsky advarer om at det ikke er noen foreslått plan for å håndtere en superintelligens som bestemmer at den mest optimale løsningen på det problemet den har i oppgave å løse er å utslette alt liv på jorden. Han reiser også bekymring for at AI-forskere faktisk ikke vet om læringsmodeller har blitt "selvbevisste", og om det er etisk å eie dem hvis de er det.
DEMOKRATER OG REPUBLIKANERE KREVER AT AI-UTVIKLINGEN MÅ REGULERES: 'KONGRESSEN MÅ ENGASJERE'
Tesla, SpaceX og Twitter-sjef Elon Musk og mer enn 1000 teknologiledere og kunstig intelligens-eksperter ber om en midlertidig pause i utviklingen av AI-systemer kraftigere enn OpenAIs GPT-4, og advarer mot risikoer for samfunnet og sivilisasjonen.
Seks måneder er ikke nok tid til å komme opp med en plan, hevder han: "Det tok mer enn 60 år mellom da forestillingen om kunstig intelligens først ble foreslått og studert, og for oss å nå dagens evner. Løse sikkerheten til overmenneskelig intelligens — ikke perfekt sikkerhet, sikkerhet i betydningen "ikke å drepe bokstavelig talt alle" - kan veldig rimelig ta minst halvparten så lang tid."
I stedet foreslår Yudkowsky internasjonalt samarbeid, selv mellom rivaler som USA og Kina, for å stenge utviklingen av kraftige AI-systemer. Han sier at dette er viktigere enn å «hindre en fullstendig atomutveksling», og at det til og med bør vurderes å bruke atomvåpen «hvis det er det som skal til for å redusere risikoen for store AI-kappløp».
«Slå alt ned», skriver Yudkowsky. "Slå ned alle de store GPU-klyngene (de store datafarmene der de kraftigste AI-ene er raffinert). Slå av alle de store treningskjøringene. Sett et tak på hvor mye datakraft noen har lov til å bruke til å trene et AI-system, og flytt den nedover i løpet av de kommende årene for å kompensere for mer effektive treningsalgoritmer. Ingen unntak for regjeringer og militære."
Yudkowskys drastiske advarsel kommer ettersom programvare for kunstig intelligens fortsetter å vokse i popularitet. OpenAIs ChatGPT er en nylig utgitt kunstig intelligens chatbot som har sjokkert brukere ved å kunne komponere sanger, lage innhold og til og med skrive kode.
"Vi må være forsiktige her," sa OpenAI-sjef Sam Altman om selskapets etablering tidligere denne måneden. "Jeg tror folk skal være glade for at vi er litt redde for dette."
Kommentarer
Legg inn en kommentar