Vi uppmanar till ett förbud mot utvecklingen av superintelligens, som inte hÀvs förrÀn det finns bred vetenskaplig konsensus om att det kan göras sÀkert och kontrollerbart, och ett starkt offentligt stöd
Uttalande om superintelligens
110 000+ undertecknare, inklusive AI-forskare, politiska, religiösa och branschledare, konstnÀrer och mediekÀndisar
Att minska risken för utrotning frÄn AI bör vara en global prioritet, i nivÄ med andra samhÀllsomfattande risker som pandemier och kÀrnvapenkrig.
Uttalande om AI-risk
Undertecknat av hundratals experter, inklusive de frÀmsta AI-labben och forskarna
Om du tar den existentiella risken pÄ allvar, som jag nu gör, kan det vara ganska rimligt att helt enkelt sluta utveckla de hÀr sakerna vidare.
Geoffrey Hinton
Nobelpristagare & "AI:s gudfader"
Utvecklingen av full artificiell intelligens skulle kunna innebÀra slutet för mÀnskligheten.
Stephen Hawking
Teoretisk fysiker och kosmolog
... vi borde förvÀnta oss att maskinerna tar kontrollen.
Alan Turing
Uppfinnare av den moderna datorn
Om vi fortsÀtter med [vÄrt nuvarande angreppssÀtt] kommer vi till slut att förlora kontrollen över maskinerna.
Stuart Russell
Författare till AI-lÀroboken
Rogue AI kan vara farligt för hela mÀnskligheten. Att förbjuda kraftfulla AI-system (t.ex. bortom GPT-4:s förmÄgor) som ges autonomi och handlingsförmÄga vore en bra start.