Deze AI -voorspelling voorspelt stormen vooruit
Het jaar is 2027. Krachtige kunstmatige intelligentiesystemen worden slimmer dan mensen en veroorzaken de wereldwijde volgorde. Chinese spionnen hebben de AI -geheimen van Amerika gestolen en het Witte Huis haast zich om wraak te nemen. Binnen een toonaangevend AI -laboratorium zijn ingenieurs bang om te ontdekken dat hun modellen ze beginnen te misleiden, waardoor de mogelijkheid wordt opgeroepen dat ze rogue gaan.
Dit zijn geen scènes uit een sci-fi scenario. Het zijn scenario’s voorgesteld door een non -profit in Berkeley, Californië, genaamd het AI Futures Project, dat het afgelopen jaar heeft doorgebracht om te voorspellen hoe de wereld er de komende jaren uit zal zien, omdat steeds krachtiger AI -systemen worden ontwikkeld.
Het project wordt geleid door Daniel Kokotajlo, een voormalige Openai -onderzoeker die verliet het bedrijf vorig jaar Over zijn zorgen dat het roekeloos handelde.
Terwijl hij in Openai, waar hij in het bestuursteam zat, schreef de heer Kokotajlo gedetailleerde interne rapporten over hoe de race voor kunstmatige algemene intelligentie, of AGI-een fuzzy term voor machine-intelligentie op menselijke machine-zich zou kunnen ontvouwen. Na het vertrek werkte hij samen met Eli Lifland, een AI -onderzoeker die een track record van nauwkeurig voorspellen Wereldevenementen. Ze gingen aan het werk om de volgende golf van AI te voorspellen.
Het resultaat is “AI 2027”, een rapport en website Deze week uitgebracht Dat beschrijft in een gedetailleerd fictief scenario wat er zou kunnen gebeuren als AI-systemen intelligentie op menselijke niveau overtreffen-die de auteurs in de komende twee tot drie jaar verwachten te gebeuren.
“We voorspellen dat AIS zal blijven verbeteren tot het punt waarop ze volledig autonome agenten zijn die beter zijn dan mensen tegen het einde van 2027 of zo,” zei de heer Kokotajlo in een recent interview.
Er is tegenwoordig geen tekort aan speculatie over AI. San Francisco is gegrepen door AI Fervor en de technische scene van de Bay Area is een verzameling strijdende stammen en splintersects geworden, elk overtuigd dat het weet hoe de toekomst zich zal ontvouwen.
Sommige AI -voorspellingen hebben de vorm aangenomen van een manifest, zoals “Machines van liefdevolle genade‘Een essay van 14.000 woorden, vorig jaar geschreven door Dario Amodei, de chief executive van antropische, of’Situationeel bewustzijn‘Een rapport van de voormalige Openai -onderzoeker Leopold Aschenbrenner die op grote schaal werd gelezen in beleidskringen.
Het People at the AI Futures -project ontwierp die van hen als een voorspellingsscenario – in wezen een stuk rigoureus onderzocht science fiction dat hun beste gissingen over de toekomst gebruikt als plotpunten. De groep besteedde bijna een jaar door met het verbeteren van honderden voorspellingen over AI, toen brachten ze een schrijver binnen – Scott Alexander, die de blog Astral Codex Ten schrijft – om hun voorspelling te helpen om te zetten in een verhaal.
“We namen wat we dachten dat zou gebeuren en probeerden het boeiend te maken,” zei de heer Lifland.
Critici van deze aanpak zouden kunnen beweren dat fictieve AI -verhalen beter zijn in het maken van mensen dan het opleiden van hen. En sommige AI -experts zullen ongetwijfeld bezwaar maken tegen de centrale bewering van de groep dat kunstmatige intelligentie menselijke intelligentie zal inhalen.
Ali Farhadi, de chief executive van het Allen Institute for Artificial Intelligence, een AI -laboratorium in Seattle, beoordeelde het rapport “AI 2027” en zei dat hij niet onder de indruk was.
“Ik ben helemaal voor projecties en voorspellingen, maar deze voorspelling lijkt niet gebaseerd te zijn op wetenschappelijk bewijs, of de realiteit van hoe dingen evolueren in AI,” zei hij.
Het lijdt geen twijfel dat sommige opvattingen van de groep extreem zijn. (Mr. Kokotajlo vertelde me bijvoorbeeld vorig jaar dat hij geloofde dat er een was 70 procent kans dat AI de mensheid zou vernietigen of catastrofaal zou schaden.) En de heer Kokotajlo en Mr. Lifland hebben beide banden met effectief altruïsme, een andere filosofische beweging die populair is bij technische werknemers Dat maakt al jaren ernstige waarschuwingen over AI.
Maar het is ook vermeldenswaard dat sommige van de grootste bedrijven van Silicon Valley dat zijn Planning voor een wereld Naast Agi, en dat veel van de gekke voorspellingen in het verleden over AI hebben gedaan-zoals de visie dat machines de Turing-test zouden doorstaan, een gedachte-experiment dat bepaalt of een machine kan lijken te communiceren als een mens-hebben uitkomen.
In 2021, het jaar voordat Chatgpt werd gelanceerd, Mr. Kokotajlo schreef een blogbericht Met de titel “Hoe 2026 eruit ziet”, met zijn visie op hoe AI -systemen zouden vorderen. Een aantal van zijn voorspellingen bleek voorafgaand en hij raakte ervan overtuigd dat dit soort voorspelling waardevol was en dat hij er goed in was.
“Het is een elegante, handige manier om uw mening aan andere mensen te communiceren,” zei hij.
Vorige week nodigden de heer Kokotajlo en Mr. Lifland me uit voor hun kantoor-een kleine kamer in een co-werkruimte van Berkeley genaamd Constellation, waar een aantal AI-veiligheidsorganisaties een grind hangen-om me te laten zien hoe ze werken.
De heer Kokotajlo, die een bruine jas in militaire stijl droeg, pakte een marker en schreef vier afkortingen op een groot whiteboard: SC> SAR> SIAR> ASI. Ieder, legde hij uit, vertegenwoordigde een mijlpaal in de AI -ontwikkeling.
Ten eerste, zei hij, ergens in het begin van 2027, als de huidige trends gelden, zal AI een bovenmenselijke coder zijn. Dan, medio 2027, wordt het een bovenmenselijke AI-onderzoeker-een autonome agent die teams van AI-coders kan overzien en nieuwe ontdekkingen kan doen. Dan, eind 2027 of begin 2028, wordt het een superintelligent AI Researcher – Een machine -intelligentie die meer weet dan wij over het bouwen van geavanceerde AI, en kan zijn eigen onderzoek en ontwikkeling automatiseren, in wezen slimmer versies van zichzelf bouwen. Van daaruit, zei hij, is het een korte hop tot kunstmatige superintelligence, of ASI, op welk punt alle weddenschappen zijn uitgeschakeld.
Als dit allemaal fantastisch klinkt … nou, dat is het. Niets op afstand zoals wat de heer Kokotajlo en Mr. Lifland voorspellen is mogelijk met de AI -tools van vandaag, die nauwelijks kunnen Bestel een burrito op Doordash zonder vast te komen te zitten.
Maar ze zijn ervan overtuigd dat deze blinde vlekken snel zullen krimpen, omdat AI -systemen goed genoeg worden in het coderen om AI -onderzoek en ontwikkeling te versnellen.
Hun rapport richt zich op OpenBrain, een fictief AI-bedrijf dat een krachtig AI-systeem bouwt dat bekend staat als Agent-1. (Ze besloten niet om een bepaald AI -bedrijf uit te kiezen, in plaats daarvan een composiet te creëren uit de toonaangevende Amerikaanse AI -laboratoria.)
Naarmate Agent-1 beter wordt in codering, begint het veel van het technische werk te automatiseren bij OpenBrain, waardoor het bedrijf sneller kan bewegen en helpt bij het bouwen van Agent-2, een nog meer capabele AI-onderzoeker. Tegen het einde van 2027, wanneer het scenario eindigt, maakt Agent-4 elke week een jaar aan AI-onderzoeksbraken en dreigt hij schurken te krijgen.
Ik vroeg Mr. Kokotajlo wat hij dacht dat daarna zou gebeuren. Dacht hij bijvoorbeeld dat het leven in het jaar 2030 nog steeds herkenbaar zou zijn? Zouden de straten van Berkeley gevuld zijn met humanoïde robots? Mensen die hun AI -vriendinnen sms’en? Zou iemand van ons banen hebben?
Hij staarde uit het raam en gaf toe dat hij het niet zeker wist. Als de komende jaren goed zouden gaan en we AI onder controle hielden, zei hij, kon hij zich een toekomst voorstellen waarin het leven van de meeste mensen nog steeds grotendeels hetzelfde was, maar waar nabijgelegen “speciale economische zones” gevuld met hyper-efficiënte robotfabrieken alles zou versnellen wat we nodig hadden.
En als de volgende jaren niet goed zouden gaan?
“Misschien zou de lucht gevuld zijn met vervuiling en zouden de mensen dood zijn?” zei hij nonchalant. “Zoiets.”
Een risico om uw AI -voorspellingen op deze manier te dramatiseren, is dat als u niet voorzichtig bent, gemeten scenario’s in apocalyptische fantasieën kunnen komen. Een andere is dat, door te proberen een dramatisch verhaal te vertellen dat de aandacht van mensen trekt, je het risico loopt om meer saaie resultaten te missen, zoals het scenario waarin AI over het algemeen goed gedragen is en voor niemand veel problemen veroorzaakt.
Ook al ben ik het eens met de auteurs van “AI 2027” dat Krachtige AI -systemen komen binnenkortIk ben er niet van overtuigd dat bovenmenselijke AI -codeerders automatisch de andere vaardigheden zullen oppakken die nodig zijn om hun weg naar algemene intelligentie op te starten. En ik ben op mijn hoede voor voorspellingen die aannemen dat AI -vooruitgang soepel en exponentieel zal verlopen, zonder grote knelpunten of wegversperringen onderweg.
Maar ik denk dat dit soort voorspelling de moeite waard is om te doen, zelfs als ik het niet eens ben met enkele van de specifieke voorspellingen. Als krachtige AI echt om de hoek staat, moeten we allemaal een aantal zeer vreemde futures beginnen voor te stellen.