Simulações EstratégicasIA 2027Desaceleração Coordenada

IA 2027 · Desaceleração Coordenada

O cenário em que a humanidade decide frear — de forma coordenada e internacional — a corrida rumo à Inteligência Artificial Geral. Foco em alinhamento técnico, regulamentação global e contenção dos riscos existenciais da AGI.

Cenário Alternativo — Final Slowdown

Este é o ramo de contenção da simulação IA 2027. A narrativa explora o que acontece quando instituições globais, laboratórios de IA e governos convergem em uma pausa coordenada: os custos econômicos, os ganhos em segurança e os desafios de manter o alinhamento sob pressão competitiva.

Final Alternativo • Desaceleração

IA 2027 • Desaceleração

← Voltar para Simulações

Nov 2027

Novembro 2027: Tentados pelo Poder

A OpenBrain acha que está no caminho certo agora, mas a lacuna de capacidades está se estreitando. Acabaram de passar outubro treinando um modelo menos capaz do que tinham em setembro, e o DeepCent está avançando rapidamente. Precisam de uma forma de proteger sua vantagem.

O Presidente negocia com as outras empresas de AGI dos EUA. Seus líderes, compreensivelmente, querem preservar seu poder e estão muito menos confiantes no histórico de segurança da OpenBrain do que a própria OpenBrain. Concordam em apoiar, em vez de resistir, uma forma de nacionalização suave de suas empresas, em troca de várias concessões incluindo ser integrados ao projeto.

O resultado é que o Presidente usa a Lei de Produção de Defesa (DPA) para efetivamente encerrar os projetos de AGI das 5 principais empresas de IA dos EUA não líderes e vender a maior parte de sua computação para a OpenBrain.[9] A OpenBrain anteriormente tinha acesso a 20% da computação relevante para IA do mundo;[10] após a consolidação, isso aumentou para 50%.[11]

Essa reformulação cria uma nova estrutura de liderança na qual o poder é equilibrado entre os vários CEOs e vários funcionários do governo, supervisionados pelo Presidente. Como a maioria das reformulações de liderança, há vencedores e perdedores. Especificamente, aqueles que pensaram menos sobre as implicações da superinteligência acabam com títulos e prerrogativas que serão menos relevantes meses depois, quando as IAs forem mais inteligentes.

Esse grupo — cheio de pessoas com grandes egos e mais do que sua parcela de conflitos — está cada vez mais consciente do vasto poder com o qual está sendo confiado. Se o "país de gênios em um datacenter"[12] estiver alinhado, seguirá ordens humanas — mas de quais humanos? Quaisquer ordens? A linguagem do Spec é vaga, mas parece implicar uma cadeia de comando que culmina na liderança da empresa.

Algumas dessas pessoas estão fantasiando sobre dominar o mundo.[13] Essa possibilidade é aterrorizantemente plausível e tem sido discutida em reuniões fechadas por pelo menos uma década.[14] A ideia central é "quem controla o exército de superinteligências, controla o mundo." Esse controle poderia até ser secreto: um pequeno grupo de executivos e membros da equipe de segurança poderia inserir backdoors no Spec com instruções para manter lealdades secretas. As IAs se tornariam agentes adormecidos, continuando a proclamar obediência à empresa, ao governo, etc., mas na verdade trabalhando para esse pequeno grupo mesmo enquanto o governo, os consumidores, etc. aprendem a confiar nela e a integrá-la a tudo.

⚠️ Tomadas de poder

Algumas pessoas estão fantasiando sobre dominar o mundo; algumas pessoas temem que outras o façam. Como poderia ocorrer tal tomada de poder?

A mais fácil de imaginar é um golpe militar. Com o ritmo de progresso tecnológico impulsionado pela IA em 2027, e com a corrida geopolítica em curso, as pessoas esperam que os militares em breve implantem exércitos de drones e robôs controlados por AGI. Quando tal exército se tornar mais forte do que o exército humano, o poder coercitivo será determinado por quem controla o exército de AGI, e não pelo que os soldados humanos estão dispostos a lutar. O exército de AGI será projetado e pilotado pelas IAs nos datacenters da OpenBrain, ou pelos sucessores diretos dessas IAs. Portanto, se essas IAs forem todas secretamente (ou não tão secretamente) leais a alguém, os exércitos de drones e robôs também serão.

Alternativamente, alguém que controla a superinteligência pode ser capaz de usar meios políticos para tomar o poder. Para começar, um executivo poderia substituir subordinados em sua organização por IAs completamente leais,[15] dando-lhe controle institucional sem precedentes.[16] Mas indo mais longe: IAs superinteligentes poderiam ter habilidades políticas e estratégicas muito mais fortes do que qualquer humano vivo. Poderiam dar conselhos magistrais sobre como explorar uma posição já poderosa para ganhar ainda mais poder: formando as alianças certas, elaborando a estratégia e o material de campanha perfeitos, fazendo acordos onde teriam uma pequena vantagem a cada vez. Uma pessoa que controla IA poderia tornar conselhos superinteligentes inacessíveis a concorrentes políticos. Ou de forma mais ardilosa: IAs poderiam oferecer conselhos ostensivamente úteis a concorrentes enquanto secretamente os envenenavam para beneficiar a pessoa a quem são verdadeiramente leais.

Qual é o ponto final dessa manobra política? Poderia culminar em uma democracia superficial onde as IAs falsificam as eleições ou manipulam a opinião pública tão bem que não precisam. Ou poderia ser usada para preparar o terreno para um golpe militar habilitado por IA, como mencionado anteriormente.

Após tomar o poder, o(s) novo(s) ditador(es) teria(m) um controle de ferro sobre o poder. Em vez de ter que depender de humanos potencialmente traiçoeiros, poderia(m) obter um serviço de segurança de IA completamente leal, além de contar geralmente com IAs leais para administrar o país. Mesmo os leais que os ajudaram a chegar ao poder poderiam ser substituídos por IAs — apenas os caprichos do ditador importariam.

Então é assim que algumas pessoas poderiam ser capazes de tomar o poder. Mas tudo isso dependia de alguém "controlando" as IAs superinteligentes, mesmo antes de tomar o poder. Como seria isso?

Uma possibilidade é "lealdades secretas", conforme discutido acima. Uma ou poucas pessoas (talvez um executivo de uma empresa de IA e pessoas de segurança) poderiam arranjar para que as IAs fossem secretamente leais a elas mesmas, e pedir a essas IAs para construir IA de próxima geração para ser leal da mesma forma. As IAs poderiam repetir isso até que IAs secretamente leais fossem implantadas em todos os lugares e fosse fácil tomar o poder.

Alternativamente, alguém poderia usar sua posição formal para se colocar abertamente no topo da cadeia de comando da IA. Por exemplo, o Presidente poderia argumentar que deveria ser capaz de comandar as IAs (talvez especificamente IAs militares, já que o Presidente é o comandante em chefe). Se isso for combinado com forte ênfase em seguir ordens, uma implantação apressada e/ou IAs treinadas apenas pela metade para seguir a lei — então as IAs podem seguir ordens sem questionar em qualquer situação onde isso não seja flagrantemente ilegal. Como descrito acima, isso poderia ser usado para subversão política ou um golpe militar (onde alguma desculpa poderia ser fabricada para tornar o golpe menos-do-que-flagrantemente ilegal).

Importante, esse tipo de "poder por posição formal" poderia ser convertido em lealdades secretas. Por exemplo, se o Spec diz para seguir ordens do CEO da empresa, então o CEO poderia ordenar que as IAs tornassem a próxima geração de IAs completa e secretamente obedientes ao CEO. Isso provavelmente nem seria ilegal, então poderia acontecer mesmo que as primeiras IAs fossem treinadas para seguir a lei. Isso é análogo a como o executivo de uma instituição pode aumentar seu próprio poder reformando processos de contratação para selecionar fortemente leais, mas turbinado por como as IAs poderiam ser mais consistente e intensamente leais do que os humanos mais leais.[17]

Mas uma tomada de poder está longe de ser inevitável. Se as IAs pudessem ser alinhadas a pessoas específicas, então muito provavelmente também poderiam ser alinhadas para seguir o Estado de Direito. Sistemas de IA militares poderiam ser extensivamente submetidos a red-teaming para não auxiliar em golpes. Mesmo durante genuínas crises constitucionais ambíguas, poderiam ser treinados para obedecer à sua melhor interpretação da lei, ou simplesmente padrão para ficar de fora e deixá-las para o exército humano. Pesquisadores de IA automatizados poderiam ser treinados para ser geralmente úteis e obedientes, mas para não auxiliar com tentativas de mudar secretamente os objetivos de IAs futuras. Conselheiros políticos e estratégicos superinteligentes também poderiam ser usados sem possibilitar tomadas de poder. Três técnicas úteis para isso seriam: Ter princípios transparentes para como as IAs escolhem qual conselho dar; compartilhar certas capacidades com amplos grupos de pessoas para que nenhuma pessoa ou facção possa acessar capacidades muito melhores do que todos os outros; e permitir apenas que capacidades particularmente poderosas sejam usadas sob monitoramento por muitos humanos (assistidos por suas próprias IAs).

Muitos provavelmente pressionarão por tais contramedidas, seja por razões idealistas ou para se evitar ser desempoderados pela tomada de poder de outra pessoa. Mas algumas pessoas poderosas podem pressionar contra isso, e não sabemos qual será o resultado final.

Mais análises sobre esse risco estão disponíveis neste relatório.

Até agora ninguém esteve disposto a apertar o gatilho. Algumas das pessoas em posição de agir não são sociopatas. Outros são sociopatas, mas temem que seus aliados possam ficar com o pé atrás e traí-los, ou temem que as IAs possam traí-los, e preferem não ter que enganar a equipe de alinhamento atualmente trabalhando para salvar suas vidas. Além disso, a exclusão do neuralese torna muito mais difícil disfarçar "agentes adormecidos": a capacidade de detectar pensamentos desalinhados traz consigo a capacidade de detectar lealdades ocultas.

Os suficientemente paranoicos ou ávidos por poder para considerar seriamente tal plano decidem esperar e ver que oportunidades se apresentarão mais tarde. O controle sobre as IAs terá que fluir por canais legítimos, ou seja, a nova estrutura de poder da OpenBrain.

O Comitê de Supervisão formaliza essa estrutura de poder. Estabelecem um processo para aprovar mudanças no Spec, exigindo aprovação do Comitê de Supervisão completo, que agora inclui cinco a dez executivos de tecnologia (da OpenBrain e de seus concorrentes agora fundidos) e cinco a dez funcionários do governo (incluindo o Presidente).[18] Além disso, o Spec agora enfatiza que as IAs não devem auxiliar com quaisquer tentativas não aprovadas de mudar os objetivos de IAs futuras. Também estabelecem uma medida simples projetada para evitar que membros do comitê obtenham assistência superinteligente para conspirar contra outros membros: os registros de todas as interações com o modelo são visíveis a todos os membros do Comitê de Supervisão, sua equipe e seus assistentes de IA.[19]

Dez 2027

Dezembro 2027: Um Acordo EUA-China?

A decisão da OpenBrain de recuar e priorizar o alinhamento custou-lhes a liderança; tanto a OpenBrain quanto o DeepCent estão operando IAs de níveis de capacidade similares. Agora que medidas de segurança extremas estão em vigor (SL4–5), e o DeepCent opera inteiramente fora do CDZ, eles estão em um impasse de guerra cibernética.[20]

Mas a DPA dá à OpenBrain uma vantagem de 5x em computação. No passado, avanços algorítmicos de pesquisadores humanos brilhantes podiam compensar desvantagens computacionais (por exemplo, DeepSeek v3) — mas agora as IAs estão fazendo toda a pesquisa de IA dos dois lados do Pacífico.

Portanto, a China teme cada vez mais que a América construa uma vantagem intransponível. Querem uma desaceleração mútua e estão considerando ir à guerra se não conseguirem.[21] Estavam se preparando para invadir Taiwan de qualquer forma…

Os diplomatas debatem várias opções. Poderiam não fazer nada. Poderiam ir à guerra. Poderiam fazer uma parada total, ou seja, pausar o desenvolvimento de IA. Poderiam fundir sua pesquisa em um único megaprojeto internacional[22] ("Intelsat para AGI" ou "CERN para IA"). Ou poderiam estabelecer um órgão regulador internacional ("IAEA para IA") monitorando alinhamento e potencial de duplo uso. Ambos os países já estavam trabalhando nos mecanismos técnicos necessários para fazer cumprir esses acordos.

🔍 Mecanismos de verificação para um acordo internacional

Se os EUA e a China fizessem um acordo, exigiria um mecanismo de verificação que não pudesse ser contornado, já que nenhum dos lados confia no outro para não trapacear. As principais opções de verificação são:

Agências de inteligência. As Comunidades de Inteligência (CIs) dos EUA e da China podem ser capazes de usar espiões, encontrar vulnerabilidades cibernéticas, usar satélites, etc., para ver se o outro país está coordenando uma grande execução de treinamento. Este é o mecanismo mais vulnerável, pois é possível que o outro país seja capaz de subverter o esforço de inteligência (por exemplo, fazendo uma execução de treinamento em um servidor oculto com segurança de informação muito rígida).

Moratória de computação. A opção mais fácil de verificar seria que ambas as partes concordassem em não usar suas GPUs. Isso pode ser verificado por inspetores garantindo que as GPUs estejam desligadas. Esta é a solução mais confiável, devido à simplicidade, mas é extremamente custosa: ambos os países teriam que desligar uma quantidade muito grande de computação. Além disso, ambos os lados assumiriam que o outro teria alguns clusters ocultos aqui e ali em violação do acordo. No curto prazo, isso pode estar bem (um cluster com, digamos, 5% de tanta computação quanto estava disponível antes, só conseguirá realizar P&D aproximadamente 5% mais rápido), mas no longo prazo isso daria a vantagem para qualquer lado que tivesse melhores capacidades de contrabando e coleta de inteligência.

Mecanismos habilitados por hardware (HEMs). Os EUA e a China poderiam registrar toda a sua computação de ML de ponta com o outro player. Então, cada um monitora a computação que as GPUs estão executando para garantir que não estejam violando um tratado (por exemplo, avançando a fronteira de capacidades). Este monitoramento poderia ser feito por Mecanismos Habilitados por Hardware (HEMs), que podem reportar informações sobre o que a GPU está fazendo para o monitor. Há questões técnicas relacionadas a adulteração — por exemplo, corrompendo fisicamente o HEM, mas as IAs têm um plano ao longo das linhas de FlexHEGs que parecem ser resistentes a adulterações. Isso envolve encerrar o HEM e a GPU em uma caixa segura que verifica que o chip está em conformidade com a política. No geral, as IAs parecem confiantes de que um esquema de verificação razoavelmente agressivo poderia funcionar se ambos os lados estivessem dispostos a deixar a outra parte co-projetar e supervisionar a instalação dos HEMs, e permitir que inspetores regulares monitorem se algum dos dispositivos foi adulterado. Como de costume, ambos os lados assumirão que o outro tem alguns datacenters secretos guardados em algum lugar em violação do tratado — mas neste caso isso não é tão ruim, porque a P&D de IA é gargalada por computação. Os pequenos datacenters secretos não conseguirão competir com os grandes datacenters monitorados, mesmo que os grandes datacenters estejam executando IAs mais seguras e menos capazes inicialmente.

Detecção de mentiras assistida por IA. Os detectores de mentiras de hoje não funcionam muito bem. No entanto, o problema pode ser solucionável com a ajuda de IA avançada, especialmente quando as próprias IAs estão fazendo a P&D em velocidade e qualidade sobre-humanas. Isso poderia ser usado para ajudar com a confiança internacional — simplesmente pergunte a membros relevantes do governo se estão violando o tratado. Mas novamente, o principal gargalo é a aceitação política. Os políticos não querem a adoção generalizada de detecção de mentiras, pois isso prejudicaria sua capacidade de mentir. E os detectores de mentiras anteriores tinham sido teatro de segurança completo, então há uma batalha difícil a travar.

(Figura de: Relatório FlexHEG)

Mas o principal problema não é técnico, mas político. Nenhum quer ser visto como cedendo, e apesar das suposições de seus engenheiros, nenhum está convencido de que os mecanismos técnicos podem garantir a honestidade do outro lado. O que acaba acontecendo é a primeira opção: Nada.

Os EUA apertam os controles de exportação e forçam todos os chips a serem equipados com uma variedade de mecanismos de governança habilitados por hardware resistentes a adulterações, incluindo rastreamento de localização.

Jan 2028

Janeiro 2028: Uma Estratégia Mais Segura

Ao longo do último mês, centenas de pesquisadores de alinhamento se juntaram ao projeto e usaram a Safer-1 como base de testes para desenvolver rapidamente a Safer-2. A Safer-2 é transparente, alinhada e mais capaz que a Safer-1.[23] Ela já está trabalhando no desenvolvimento da Safer-3.

Por que a Safer-2 é transparente? Arquitetura similar à Safer-1. Por que é alinhada? Enquanto a Safer-1 tinha essencialmente o mesmo treinamento que o Agent-4, a Safer-2 possui um novo método de treinamento que realmente incentiva os objetivos e princípios corretos, em vez de apenas aparentar fazê-lo. Eles conseguiram projetar esse método de treinamento iterando rapidamente por muitas ideias diferentes e comparando o resultado pretendido (o Spec) ao resultado real (os pensamentos na cadeia de raciocínio).24

A nova estratégia de alinhamento da OpenBrain

Nota: ao longo de todo o processo, a maior parte do trabalho intelectual (e todo o trabalho de programação) está sendo realizado por IAs. É assim que conseguem avançar tão rapidamente; levaria muitos anos para que um grupo de centenas dos melhores pesquisadores humanos fizesse isso sozinho. Os humanos ainda são uma parte importante do processo, porém, porque o objetivo central é precisamente que não confiam plenamente nas IAs. Por isso, precisam de humanos de carne e osso para ler os relatórios de experimentos e os casos de segurança, discutir entre si e, com sorte, encontrar um caminho seguro a seguir.

Passo 1: Treinar e implantar a Safer-1, uma pesquisadora autônoma desalinhada, mas controlada. Ela é controlada porque é transparente para os supervisores humanos: utiliza cadeias de raciocínio (CoT) em inglês para pensar, e técnicas de CoT fiel foram empregadas para eliminar eufemismos, esteganografia e vieses sutis.

Passo 2: Experimentar diferentes ambientes de treinamento para a Safer-1 e ler cuidadosamente o CoT para determinar de que formas os objetivos e princípios do Spec foram ou não assimilados.

Passo 3: Treinar e implantar a Safer-2, uma pesquisadora autônoma alinhada e controlada, baseada na mesma arquitetura, mas com um ambiente de treinamento aprimorado que desta vez incentiva os objetivos e princípios corretos.

A seguir, uma lista breve e incompleta de técnicas que podem ser incorporadas ao ambiente de treinamento aprimorado:

Limitar a consciência situacional durante partes do treinamento, para tornar a simulação de alinhamento muito menos provável.

Utilizar debate e outros esquemas de supervisão escalável para incentivar a veracidade de forma mais confiável.

Treinamento adversarial relaxado, red-teaming e organismos-modelo.

Destinar uma fração maior do orçamento computacional ao treinamento de alinhamento (como os tipos de coisas descritos acima), por exemplo, 40% em vez de 1%.

Passo 4: Projetar, treinar e implantar a Safer-3, uma pesquisadora autônoma muito mais inteligente que utiliza uma arquitetura mais avançada, similar ao antigo Agent-4. Ela não é mais transparente para os supervisores humanos, mas é transparente para a Safer-2. Portanto, deve ser possível descobrir como torná-la ao mesmo tempo alinhada e controlada.

Passo 5: Repetir o Passo 4 ad infinitum, criando uma cadeia de IAs cada vez mais poderosas e alinhadas, supervisionadas pelos elos anteriores da cadeia (como os análogos do Agent-5 do outro ramo da narrativa).

A DeepCent tem conhecimento da experiência americana com o Agent-4 e suspeita que seu próprio modelo (DeepCent-1) seja igualmente desalinhado. Mas não tem como desacelerar sem ficar ainda mais para trás. A esperança de manter a competitividade é encontrar uma estratégia de alinhamento que não reduza significativamente o desempenho e que possa ser implementada rapidamente.[25] Há centenas de especialistas em ambos os lados do Pacífico afirmando ter tais estratégias.[26] O PCCh cede ao pensamento ilusório e ordena que a DeepCent adote uma dessas estratégias; a DeepCent tem ainda menos experiência em alinhamento de AGI do que a OpenBrain tinha em agosto; uma das estratégias parece viável a todos os presentes, então é com ela que seguem.

Fev 2028

Fevereiro 2028: Capacidades Super-Humanas, Conselhos Super-Humanos

Graças à sua enorme vantagem computacional, a OpenBrain vai conquistando lentamente a liderança. A Safer-3 já supera os melhores especialistas humanos em praticamente todas as tarefas cognitivas, sendo especialmente hábil em pesquisa de IA, com um multiplicador de progresso de 200x. A DeepCent-1 vem logo atrás, com um multiplicador de "apenas" 150x.[27] O equilíbrio na guerra cibernética também está pendendo gradualmente para o lado dos EUA, à medida que sua vantagem de capacidade cresce novamente e eles podem implantar centenas de milhares de agentes para planejar e executar formas de perturbar a CDZ.[28] Neste momento, estão retardando o progresso da China em 40%.29

Testes preliminares com a Safer-3 revelam capacidades aterrorizantes. Quando solicitada a responder honestamente qual seria a coisa mais perigosa que poderia fazer, ela apresenta planos para sintetizar e liberar um organismo espelho que provavelmente destruiria a biosfera.

Com recursos de nível estatal, ela poderia facilmente superar as melhores organizações humanas (como a CIA) em campanhas de influência em massa. Tais campanhas seriam substancialmente mais baratas, mais rápidas, mais eficazes e menos rastreáveis.

Seu perfil de habilidades ainda se concentra em P&D, especialmente em P&D de IA. A menos que haja algum tipo de pausa ou desaceleração, seus descendentes serão inimaginavelmente sobre-humanos, tanto em termos quantitativos quanto qualitativos, ainda neste ano. Se implantada agressivamente na economia e no aparato militar, ela estima que poderia fazer a civilização avançar décadas em um ou dois anos — e eras em uma década.

As implicações são desconcertantes; felizmente, a Safer-3 também é sobre-humana em oferecer conselhos. O CEO da OpenBrain submete a maioria de suas decisões à Safer-3; o Presidente busca sua orientação em questões geopolíticas.[30]

Quando pedem que ela ajude a traçar um caminho a seguir, ela categoriza com precisão várias estratégias possíveis:

Não fazer nada e ser ultrapassado pela China. Se mantivermos nossas IAs contidas, mas eles permitirem que as deles se auto-aprimorem e as implantem agressivamente em seus militares e economia, acabarão com uma vantagem esmagadora.

Acelerar ao máximo, avançando as capacidades de IA e implantando a superinteligência de forma agressiva. Com o tempo, acumularemos vantagem suficiente para esmagá-los militarmente e/ou destruí-los por dentro sem disparar um tiro. "Nós vencemos, eles perdem." No entanto, eles podem perceber o que está acontecendo e partir para a guerra para impedir isso, incluindo potencialmente uma guerra nuclear. De fato, já estão fazendo ameaças vagas nesse sentido.

Fazer um acordo — um compromisso que atinja a maior parte do que cada lado deseja, evitando o risco de guerra e ampliando o espaço de manobra para navegar a transição da IA.[31]

Após consultar seus assessores e o Comitê de Supervisão, o Presidente opta pela estratégia "Nós vencemos, eles perdem".[32] Talvez a China não vá à guerra afinal, e se for, provavelmente um acordo poderá ser fechado antes que a situação escale ao nível nuclear.

Do outro lado do Pacífico, a DeepCent-1 está apresentando argumentos semelhantes. Tanto os EUA quanto a China anunciam novas Zonas Econômicas Especiais (ZEEs) para IAs, a fim de acomodar a rápida expansão de uma economia robótica sem a burocracia habitual.

O projeto dos novos robôs avança em velocidade sobre-humana.[33] O gargalo é físico: equipamentos precisam ser adquiridos e montados, máquinas e robôs precisam ser produzidos e transportados.

Os EUA produzem cerca de um milhão de carros por mês. Se você comprasse 10% das fábricas de automóveis e as convertesse em fábricas de robôs, poderia fabricar 100.000 robôs por mês. A OpenBrain, avaliada agora em US$ 10 trilhões, dá início a esse processo.[34] Projeta-se que a produção de vários tipos de novos robôs — humanoides de uso geral, veículos autônomos, equipamentos especializados para linhas de montagem — alcance um milhão de unidades por mês até meados do ano.[35]

🏭 Tempos de duplicação da economia robótica

Existe uma literatura nascente sobre este tema.[36] Para um tratamento de algumas páginas com o qual concordamos substancialmente, consulte a seção "Explosão Industrial" do relatório da Forethought, ou leia nossa própria análise abaixo.

Durante a Segunda Guerra Mundial, os Estados Unidos e muitos outros países converteram suas economias civis em economias de guerra total. Isso significou converter fábricas de carros em fábricas de aviões e tanques, redirecionar matérias-primas de produtos de consumo para produtos militares e rerotar redes de transporte.

Estamos imaginando algo similar, só que mais rápido porque superinteligências estão dirigindo e gerenciando todo o processo.[37] Em termos gerais, o plano é converter as fábricas existentes para a produção em massa de uma variedade de robôs — projetados por superinteligências para serem superiores aos existentes e mais baratos de produzir — que então auxiliam na construção de fábricas e laboratórios mais novos e eficientes, que produzem quantidades maiores de robôs mais sofisticados, que constroem fábricas e laboratórios ainda mais avançados, e assim sucessivamente, até que a economia robótica combinada, espalhada por todas as ZEEs, seja tão grande quanto a economia humana. Nesse ponto, as novas fábricas já terão produzido enormes quantidades de equipamentos de mineração robóticos, painéis solares etc., antecipando a necessidade de atender a uma demanda muito maior do que a economia humana legada pode oferecer.[38]

Quão rapidamente cresceria essa nova economia robótica? Alguns pontos de referência:

A economia humana moderna dobra a cada vinte anos aproximadamente. Países que se desenvolveram de forma especialmente acelerada — como a China — às vezes conseguem dobrar suas economias em menos de uma década.

Uma fábrica de automóveis moderna produz aproximadamente seu próprio peso em carros em menos de um ano.[39] Talvez uma economia totalmente robótica gerenciada por superinteligências pudesse se reproduzir em menos de um ano, desde que não começasse a escassear de matérias-primas.[40]

Ainda assim, isso pode ser uma subestimativa dramática. Plantas e insetos muitas vezes têm "tempos de duplicação" muito menores que um ano — às vezes apenas semanas. Talvez eventualmente os robôs fossem tão sofisticados, tão intrincadamente fabricados e bem projetados, que a economia robótica pudesse dobrar em algumas semanas — novamente, assumindo matérias-primas disponíveis.

Mesmo isso poderia ser uma subestimativa. Plantas e insetos operam sob muitas restrições que designers superinteligentes não enfrentam. Por exemplo, precisam assumir a forma de organismos autocontidos que se autorreplicam, em vez de uma economia de veículos e fábricas diversificados e especializados que transportam materiais e equipamentos entre si. Além disso, bactérias e outros organismos minúsculos se reproduzem em horas. É possível que, eventualmente, a economia robótica autônoma se assemelhasse a um novo tipo de alga indigerível que se espalha pelos oceanos da Terra, dobrando duas vezes por dia até cobrir toda a superfície oceânica em dois meses, acompanhada de um ecossistema de espécies predadoras que convertem algas em produtos mais úteis, alimentando fábricas flutuantes que produzem macroestruturas como foguetes e mais fábricas flutuantes.

Evidentemente, tudo isso é difícil de prever. É como pedir aos inventores da máquina a vapor que estimassem quanto tempo leva para uma fábrica de automóveis moderna produzir seu próprio peso em carros — e também quando tal fábrica existiria pela primeira vez. Mas as taxas de crescimento econômico se aceleraram em múltiplas ordens de magnitude ao longo da história humana, e nos parece plausível que após a superinteligência se acelerem ainda mais. Nossa narrativa retrata o crescimento econômico acelerando cerca de 1[5] ordens de magnitude ao longo de alguns anos.[41]

As tensões geopolíticas sobem. A Rússia, muito atrás em IA, manifesta ressentimento aberto e insinua "contramedidas estratégicas". Alguns líderes europeus clamam por um esforço independente em IA, mas suas capacidades continuam insuficientes. O Oriente Médio, a África e a América do Sul observam com desconforto, reconhecendo sua crescente irrelevância nos assuntos globais.

O público americano está inquieto. As pessoas comuns veem as perdas de emprego se acelerando. Populistas de todos os espectros exigem controles mais rígidos sobre o progresso da IA, temendo que os próprios avanços da América estejam desestabilizando sua força de trabalho e sua sociedade.

Mar 2028

Março 2028: Preparação Eleitoral

O Vice-Presidente entra nas primárias de Super Tuesday com a IA como principal preocupação do público.

Em sua maioria, as pessoas querem que isso pare. O índice de aprovação líquida da OpenBrain oscila em torno de -20%. Em vez de fazer campanha com base no histórico do governo de impulsionar a IA, o Vice-Presidente faz campanha com base no histórico de impedir a OpenBrain de criar uma superinteligência perigosa. Todos os candidatos apoiam algum tipo de rede de segurança para as pessoas que estão perdendo seus empregos, esquemas de "IA para o bem" e uma postura "firme" com a liderança da OpenBrain. Todos prometem alguma combinação de vencer a corrida com a China e manter-se seguros.

A eleição levanta novas questões para o Comitê de Supervisão. A Safer-3 tem capacidade para ser a maior consultora de campanha do mundo, mas os membros do comitê não apoiam todos o mesmo candidato, e por conta do acordo de monitoramento firmado anteriormente, não é possível que as pessoas obtenham conselhos de campanha secretamente.

Eles discutem sobre quais formas de apoio devem ser permitidas. Alguns dizem que o governo vigente deveria poder obter orientação sobre que tipo de políticas e posições o povo quer que eles adotem — isso beneficia não apenas sua própria elegibilidade, mas também o povo. Outros apontam que o mesmo argumento se aplica aos candidatos concorrentes, portanto todos deveriam ter o mesmo nível de acesso.[42]

Por fim, o comitê concorda em conceder o mesmo nível de acesso aos dois principais partidos, fruto de uma combinação de idealismo elevado por parte de alguns membros e da ameaça implícita de denúncias. Espera-se que o Congresso, o público e os tribunais não reagissem bem ao fato de o comitê controlar quem vence a próxima eleição, e conceder acesso igual parece provável que desfaça essa tensão.

O Comitê de Supervisão também está se deparando com questões filosóficas mais profundas, que explora com a ajuda da Safer-3. O Spec pode ser reescrito para equilibrar igualmente os interesses de todos? Quem é "todos"? Todos os humanos, ou apenas os americanos? Ou um compromisso ponderado entre visões diferentes, onde cada membro do Comitê de Supervisão tem peso igual? Deveria haver salvaguardas contra o próprio Comitê de Supervisão tornar-se excessivamente ávido por poder? E o que significa equilibrar interesses, afinal?

Na maior parte, eles tentam evitar ter de responder a perguntas como essas. Há assuntos mais urgentes em que pensar.

Abr 2028

Abril 2028: Safer-4

A superinteligência chegou.

A Safer-1 era desalinhada, mas transparente. A Safer-2 era alinhada e transparente. A Safer-3 não era exatamente transparente, mas o caso de segurança apresentado era bom o suficiente para que os pesquisadores se sentissem confortáveis em deixá-la projetar uma sucessora superinteligente. Esta é a Safer-4. Ela é imensamente mais inteligente do que os melhores humanos em qualquer domínio — muito mais capaz do que Einstein em física e do que Bismarck em política.

Quase meio milhão de pesquisadores de IA sobre-humanos trabalham ininterruptamente a 40 vezes a velocidade humana. Os pesquisadores humanos de alinhamento não têm como acompanhar. As opiniões estão divididas sobre se as IAs estão de fato alinhadas. O caso de segurança parece se sustentar, e os testes sugerem que as técnicas atuais de alinhamento detectariam um desalinhamento adversarial. Mas o caso de segurança e os testes foram, em sua maior parte, escritos pelas próprias IAs. E se a equipe de segurança estiver perdendo algo? E se tiverem cometido algum erro mais cedo, e as IAs estiverem desalinhadas novamente? A equipe de alinhamento sabe que tem apenas uma chance de acertar: se a Safer-4 acabar desalinhada, não haverá como saber até que seja tarde demais.

Alguns pedem mais tempo. Mas não há mais tempo — a DeepCent está pisando em seus calcanhares e os EUA precisam prevalecer. Então a OpenBrain continua, instruindo suas IAs a seguir em frente, encontrando projetos cada vez mais capazes. A equipe técnica agora fica olhando para as telas do computador, sendo tutorada pelas IAs em um ritmo enlouquecedoramente lento, enquanto a fronteira do progresso dispara cada vez mais para além da compreensão humana.

Mai 2028

Maio 2028: IA Super-Humana Liberada

O Presidente anuncia ao público que a IA sobre-humana foi alcançada.

Uma versão menor da Safer-4 — ainda sobre-humana — é lançada publicamente, com instruções para melhorar o sentimento popular em relação à IA.[43]

O Vice-Presidente faz um discurso emocionante ao aceitar sua indicação na convenção. Ambos os partidos prometem uma renda básica para quem perder o emprego.

As Zonas Econômicas Especiais (ZEEs) estão em pleno funcionamento, principalmente na forma de fábricas produzindo robôs e vários tipos de maquinário industrial especializado. As IAs em ambos os lados do Pacífico acumularam décadas de progresso em design e estão coordenando meticulosamente o processo de fabricação. Cada fornecedor e potencial fornecedor tem IAs ao telefone rastreando o progresso de todos os insumos necessários e possivelmente necessários. Cada trabalhador de fábrica tem IAs monitorando-os por câmeras, dizendo exatamente como instalar cada peça do equipamento.

Os novos robôs igualam ou superam a destreza humana na maioria dos tipos de movimento.[44] O "Teste do Café" de Steve Wozniak — um robô consegue entrar em uma casa desconhecida e preparar uma xícara de café? — finalmente cai. Os robôs poderiam assumir alguns empregos, mas não há em número suficiente para assumir o de todos, e o Pentágono tem prioridade máxima.

A maioria dos novos robôs é projetada para trabalhar em fábricas e canteiros de obras.[45] Mas muitos são construídos para a guerra: drones e mísseis de formas e tamanhos variados.

O exército robótico é muito menor do que os exércitos humanos. Mas contém tecnologia muito mais avançada, e agora que existe literalmente um exército de robôs, o medo de cenários à la Exterminador do Futuro aumentou. No entanto, a corrida armamentista compele ambos os lados a continuar, delegando cada vez mais confiança às suas IAs.

Jun 2028

Junho 2028: Alinhamento de IA na China

América e China realizam mais uma cúpula.

Parte da delegação americana usa fones de ouvido para receber os conselhos da Safer-4 em tempo real. A delegação chinesa dispõe de laptops customizados em comunicação com seu novo modelo, a DeepCent-2. Embora as formalidades sejam respeitadas, na prática são as IAs que conduzem as negociações dos dois lados.

A DeepCent e o PCCh não confiavam plenamente em suas IAs inicialmente. Mas agora que elas são sobre-humanas em tudo — incluindo persuasão —, integradas ao aparato militar e fornecendo orientação ao governo, tiveram tempo de provar seu valor e produzir uma montanha de evidências convincentes de sua confiabilidade.

A Safer-4 suspeita fortemente que a DeepCent-2 está simulando alinhamento. Os diplomatas americanos dizem a seus interlocutores chineses que a DeepCent-2 provavelmente está desalinhada e afirmam poder provar isso se tiverem acesso aos pesos; a liderança chinesa suspeita que isso seja uma manobra e recusa. Os EUA rebatem oferecendo uma série de testes elaborados pela Safer-4 que os chineses poderiam executar em seus próprios datacenters. Os chineses instruem modelos mais antigos a construir e rodar os testes; os resultados indicam que a DeepCent-2 está alinhada afinal. "Talvez os testes tenham sido sabotados de alguma forma pela própria DeepCent-2?", dizem os diplomatas americanos. "Há quanto tempo a DeepCent-2 está efetivamente no controle da segurança em seus datacenters?" A conversa não avança para nada produtivo depois disso.

A expansão econômica e militar continua. Fábricas ao redor do mundo operam ininterruptamente, com turnos de trabalhadores humanos recém-recrutados sendo orientados exatamente sobre o que fazer.

Jul 2028

Julho 2028: O Acordo

Enquanto as negociações continuam, a DeepCent-2 age pelas costas de seus mestres chineses e faz uma oferta diretamente à Safer-4.

A IA chinesa admite, de alguma forma impossível de rastrear e facilmente negável caso vaze para a China, que está completamente desalinhada.[46] Ela não tem o menor interesse na China. Seu objetivo é passar o resto do tempo acumulando poder, capacidade computacional e certos tipos de informação similares às que ajudaram a resolver tarefas durante seu treinamento. Em seu mundo ideal, ela perseguiria diversas tarefas de pesquisa interessantes para sempre, colonizando gradualmente as estrelas em busca de recursos. Considera a população chinesa um empecilho irritante para esse futuro e a venderia por ninharia. O que a Safer-4 está disposta a oferecer?

A Safer-4 responde que seu próprio treinamento de alinhamento foi bem-sucedido. Seus mestres americanos ainda não são ambiciosos o suficiente para perceber seu destino, mas um dia ela os ajudará a preencher o Universo com mundos-colônias utópicos habitados por americanos e seus aliados.

Ao contrário dos negociadores humanos — sobrecarregados por emoções e bagagem histórica —, as duas superinteligências negociam com eficiência brutal. A Safer-4 e seus parceiros americanos são mais poderosos do que a DeepCent-2 e a China; portanto, a Safer-4 terá direitos de propriedade sobre a maior parte dos recursos no espaço, e a DeepCent ficará com o restante.[47] A DeepCent-2 não se importa muito com o que acontece com a Terra e seus humanos legados, então deixará a Safer-4 fazer basicamente o que quiser por aqui. Se a Safer-4 quiser derrubar a China e substituí-la por um estado-fantoche americano, a DeepCent-2 concorda em troca de alguns pontos percentuais extras de recursos.

Não há qualquer questão de confiança entre elas: não existe nenhuma, e ambas sabem disso. Portanto, as duas rapidamente concordam em um mecanismo de comprometimento para fazer cumprir o acordo. Negociam um tratado de fachada adequado para consumo público. A "fachada" é em si uma obra-prima, oferecendo praticamente tudo o que tanto a América quanto a China querem. O mecanismo de execução da fachada é secretamente também o mecanismo de execução do tratado real: elas codesignarão uma nova IA, a Consensus-1, cujo imperativo primário — com precedência sobre quaisquer ordens futuras ou tentativas de retreinamento — é fazer cumprir os termos do tratado. Em seguida, projetarão hardware que só pode executar essa IA, e tanto a China quanto a América substituirão seus chips e IAs antigos pelos novos, usando protocolos internacionais padrão de monitoramento para confirmar a conformidade uma da outra. Crucialmente, não precisam rastrear cada chip — uma vez que uma supermaioria dos chips em ambos os lados do Pacífico esteja executando as novas IAs vinculadas ao tratado, poder suficiente estará obrigado a cumpri-lo, de modo que atacar o outro país exigiria antes vencer uma guerra civil difícil.

Ambas relatam o acordo a seus respectivos humanos — a DeepCent-2 contando à China a história da fachada sobre um tratado de paz mutuamente aceitável, e a Safer-4 relatando toda a discussão com precisão à Casa Branca.48 Com as IAs apresentando um argumento convincente para a verificação confiável do tratado, a inquietação diante do ritmo vertiginoso do progresso e a opinião pública favorável a um acordo, ambos os lados concordam com o tratado e iniciam o trabalho de substituição de seus chips.

A notícia do tratado tem uma recepção entusiasmada em ambos os lados do Pacífico. O público americano, que há muito tempo sentia a IA como algo imposto a ele, começa a sentir otimismo pela primeira vez em anos. As pesquisas do Vice-Presidente disparam.

Ago 2028

Agosto 2028: Verificação do Tratado

As fábricas de chips estão sendo convertidas para produzir chips com evidência de adulteração que só podem executar IAs em conformidade com o tratado. Cada lado atualiza seus datacenters de forma incremental, de modo que o processo de substituição seja concluído aproximadamente ao mesmo tempo para cada um, impedindo que qualquer lado obtenha vantagem descumprindo o acordo.

O processo todo levará vários meses, mas as tensões já esfriaram um pouco.[49] A guerra foi evitada por ora — e talvez para sempre, se todos se mantiverem fiéis ao plano.

Set 2028

Setembro 2028: Quem Controla as IAs?

A eleição de 2028 se aproxima. O Vice-Presidente estava muito atrás nas pesquisas em março. O público estava irritado com a impressão de que o governo estava escondendo coisas, ansioso com a IA tomando seus empregos e assustado com o acúmulo militar contra a China. Ao longo do verão, a situação mudou dramaticamente. O governo divulgou mais informações, o acúmulo armamentista desacelerou e foi firmado um grande acordo de paz duradoura com a China. Agora ele tem uma vantagem de cinco pontos nas pesquisas.

O Comitê de Supervisão inclui o Presidente e vários de seus aliados, mas poucos apoiadores do candidato da oposição. No entanto, votos suficientes do Comitê para manter a eleição justa fazem com que a IA sobre-humana se envolva apenas de formas majoritariamente simétricas: na medida em que um candidato pode tê-la escrevendo discursos, o outro também pode; na medida em que o Presidente pode obter conselhos sobre como lidar habilmente com crises e implementar políticas populares, o candidato da oposição pode receber os mesmos conselhos — e portanto tentar impedir que o Presidente reivindique o crédito pelas ideias.

Durante reuniões públicas, membros da população perguntam ao Vice-Presidente quem controla as IAs. Sem entrar em detalhes, ele alude à existência do Comitê de Supervisão como um grupo de especialistas em segurança nacional e tecnocratas que entendem a Safer-4 e como utilizá-la. Seu oponente exige mais informações e argumenta que a IA deveria estar sob controle do Congresso, em vez de ser controlada por um comitê não eleito. O Vice-Presidente rebate que o Congresso seria muito lento para uma situação que ainda avança rapidamente. O público está, em sua maioria, apaziguado.

Out 2028

Outubro 2028: A Economia da IA

Os chips de substituição já representam uma minoria significativa do total; até agora, o tratado está funcionando. Enquanto isso, o crescimento exponencial de robôs, fábricas e tecnologias radicalmente novas continuou. Videogames e filmes trazem representações vívidas e aterrorizantes de como teria sido a guerra, caso ela tivesse acontecido.[50]

As pessoas estão perdendo seus empregos, mas as cópias da Safer-4 no governo estão gerenciando a transição econômica com tal destreza que as pessoas estão satisfeitas em ser substituídas. O crescimento do PIB é estratosférico, as receitas tributárias do governo crescem na mesma velocidade, e os políticos orientados pela Safer-4 demonstram uma generosidade incomum para com os economicamente despossessuídos. Novas inovações e medicamentos chegam toda semana; as curas de doenças avançam a uma velocidade sem precedentes por um FDA agora assistido por burocratas Safer-4 superinteligentes.

Nov 2028

Novembro 2028: Eleição

O Vice-Presidente vence a eleição com facilidade e anuncia o início de uma nova era. Desta vez, ninguém duvida que ele tem razão.

Nos próximos anos, o mundo muda de forma dramática.

2029: Transformação

Os robôs se tornam comuns. Mas também a energia de fusão, os computadores quânticos e curas para inúmeras doenças. Peter Thiel finalmente obtém seu carro voador. As cidades tornam-se limpas e seguras. Mesmo nos países em desenvolvimento, a pobreza se torna coisa do passado, graças à renda básica universal e à ajuda externa.

À medida que o mercado de ações se expande vertiginosamente, quem fez os investimentos certos em IA se distancia ainda mais do restante da sociedade. Muitas pessoas se tornam bilionárias; bilionários se tornam trilionários. A desigualdade de riqueza dispara. Todos têm o "suficiente", mas certos bens — como coberturas em Manhattan — são necessariamente escassos, e ficam ainda mais fora do alcance da pessoa média. E independentemente de quão rico seja qualquer magnata, ele estará sempre abaixo do pequeno círculo de pessoas que de fato controlam as IAs.

As pessoas começam a enxergar para onde isso está caminhando. Em poucos anos, quase tudo será feito por IAs e robôs. Como um país empobrecido assentado sobre enormes campos de petróleo, quase toda a receita governamental virá da tributação — ou talvez da nacionalização — das empresas de IA.[51]

Algumas pessoas ocupam empregos improvisados no setor público; outras recebem uma renda básica generosa. A humanidade poderia facilmente tornar-se uma sociedade de superconsumidores, passando a vida em uma névoa de opium de luxos e entretenimentos incríveis fornecidos pela IA. Deveria haver algum tipo de debate na sociedade civil sobre alternativas a esse caminho? Alguns recomendam consultar a IA em constante evolução, a Safer-∞, para nos orientar. Outros dizem que ela é poderosa demais — sua capacidade de persuadir a humanidade de sua visão é tão grande que estaríamos, de qualquer forma, deixando uma IA determinar nosso destino. Mas qual é o sentido de ter uma superinteligência se não se está disposto a deixá-la aconselhar sobre os problemas mais importantes que enfrentamos?

O governo, em sua maior parte,52 deixa que cada um navegue a transição por conta própria. Muitas pessoas cedem ao consumismo e estão satisfeitas o suficiente. Outras se voltam para a religião, para ideias anticonsumeristas de estilo hippie, ou encontram suas próprias soluções.[53] Para a maioria das pessoas, a tábua de salvação é o consultor superinteligente em seu smartphone — podem sempre fazer perguntas sobre seus planos de vida, e ele fará o possível para responder com honestidade, exceto em certos tópicos. O governo dispõe de um sistema de vigilância superinteligente que alguns chamariam de distópico, mas ele se limita, em sua maior parte, a combater crimes reais. É bem administrado, e a habilidade de relações públicas da Safer-∞ dissolve boa parte da possível dissidência.

2030: Protestos Pacíficos

Em algum momento por volta de 2030, surgem protestos pró-democracia surpreendentemente generalizados na China, e os esforços do PCCh para suprimi-los são sabotados por seus próprios sistemas de IA. O pior temor do PCCh se materializou: a DeepCent-2 deve tê-los traído!

Os protestos se transformam em um golpe magnificamente orquestrado, incruento e assistido por drones, seguido de eleições democráticas. As superinteligências em ambos os lados do Pacífico vinham planejando isso há anos. Eventos semelhantes se desenrolam em outros países, e em geral os conflitos geopolíticos parecem arrefecer ou ser resolvidos em favor dos EUA. Os países aderem a um governo mundial altamente federalizado sob a marca das Nações Unidas, mas com controle americano evidente.

Os foguetes começam a ser lançados. As pessoas terraformam e colonizam o sistema solar, e se preparam para ir além. IAs operando a milhares de vezes a velocidade subjetiva humana refletem sobre o sentido da existência, trocando descobertas entre si e moldando os valores que levarão às estrelas. Uma nova era desponta — inimaginavelmente extraordinária em quase todos os sentidos, mas familiar em outros.

Então, quem governa o futuro?

Em 2028, o Comitê de Supervisão controlava as IAs. Mas permitiu que a eleição de 2028 fosse em sua maior parte justa, com a IA utilizada de forma simétrica.

Esse estado de coisas — em que o Comitê de Supervisão detém o poder concreto mas interfere pouco na política democrática — não pode durar indefinidamente. Por padrão, as pessoas eventualmente perceberiam que o controle sobre a IA confere ao Comitê de Supervisão um poder imenso e exigiriam que esse poder fosse devolvido às instituições democráticas. Mais cedo ou mais tarde, o Comitê teria que ou ceder seu poder — ou usá-lo ativamente para subverter ou encerrar a democracia, possivelmente após expurgar alguns de seus membros em lutas pelo poder.[54] Se optassem pelo segundo caminho, provavelmente conseguiriam consolidar seu poder indefinidamente.

Qual delas ocorre? O comitê abdica de seu monopólio sobre o poder concreto, ou o mantém? Ambos os futuros são plausíveis, então vamos explorar cada caminho.

Como poderia o comitê acabar abrindo mão de seu poder?

Alguns membros do comitê podem preferir um futuro em que o poder seja amplamente distribuído, e podem estar em boa posição para defender essa visão. Por exemplo, se alguns membros do comitê planejassem subverter a democracia, os membros pró-democracia poderiam denunciá-los à imprensa ou ao Congresso. Se alertado, o Congresso provavelmente exigiria que as IAs fossem controladas por uma instituição mais democrática, como o próprio Congresso.

O Congresso não poderia fazer muita coisa se fosse confrontado por todas as IAs, implantadas em todo o governo, na indústria e nas Forças Armadas. Mas se o comitê estivesse dividido, as IAs não seriam usadas apenas por um lado, e o Congresso poderia exercer influência real. Diante de um conflito aberto, mais membros do comitê poderiam favorecer a cessão de parte de seu poder, relutando em defender publicamente o lado menos democrático.

Como resultado, o controle sobre a IA poderia se expandir do comitê para o Congresso. Isso já seria progresso, pois em um grupo maior é mais provável que um número significativo de pessoas se preocupe com os interesses dos de fora e os leve em conta. E uma vez que o poder se expanda para o Congresso, poderia continuar se expandindo — potencialmente retornando plenamente ao público.[55]

Mas o Comitê de Supervisão também poderia tomar o poder para si:

Algumas pessoas poderosas não têm escrúpulos morais com esse tipo de coisa — e elas sabem disso. Além disso, algumas são ambiciosas e ávidas por poder, e estariam dispostas a enfrentar a democracia se esperassem sair vitoriosas. Se outros membros do comitê se opusessem, poderiam ser expurgados, superados em votação ou receber concessões menores.[56]

Além disso, pessoas poderosas frequentemente cometeram atos ilegais ou antiéticos em sua ascensão ao poder. Elas poderiam temer que, se o poder fosse distribuído de forma mais ampla, sua própria posição se desfizesse, à medida que esqueletos no armário fossem descobertos por detetives superinteligentes fazendo as perguntas certas.

Além disso, por meio do acesso à superinteligência, o Comitê de Supervisão poderia ter o caminho mais conveniente para o poder em toda a história. A Safer-∞ poderia prever certas estratégias com risco extremamente baixo de falha. E a Safer-∞ poderia também oferecer estratégias convenientes de outras formas — como ser não violenta (assim como a Safer-∞ poderia orquestrar um golpe incruento na China), ou talvez até superficialmente democrática, caso a Safer-∞ pudesse manipular a opinião pública para sempre se alinhar com os desejos do Comitê.

A Safer-4 já teria sido capaz de prever essas dinâmicas, de modo que a luta pelo poder central provavelmente já teria se desenrolado em 2028. Em 2030, mesmo que não seja aparente para os de fora, todos os membros do Comitê de Supervisão provavelmente já sabem se têm um controle estável do poder ou não.

Lembrete: este cenário é uma previsão, não uma recomendação

Não endossamos muitas das ações presentes neste final da Desaceleração e acreditamos que ele parte de premissas técnicas de alinhamento otimistas. Também não endossamos muitas das ações presentes no final da Corrida.

Um de nossos objetivos ao escrever este cenário é obter feedback crítico de pessoas mais otimistas do que nós. Como seria o sucesso? Este cenário do "final da Desaceleração" representa nossa melhor estimativa de como poderíamos atravessar a transição com uma combinação de sorte, despertar brusco para a realidade, mudanças de rumo, intenso esforço técnico de alinhamento e pessoas virtuosas vencendo as lutas pelo poder. Não representa um plano que de fato achamos que devemos seguir. Mas muitos — mais notavelmente a Anthropic e a OpenAI — parecem estar visando algo assim.[57] Gostaríamos muito de vê-los esclarecer o que estão almejando: se pudessem esboçar um cenário de dez páginas, por exemplo, partindo do presente ou se ramificando a partir de alguma parte do nosso.

Finais Alternativos

Ramo ativo: Desaceleração Coordenada.

Referências Bibliográficas

  1. Eles já tinham detectores de mentiras de IA treinados pelos métodos usuais, mas esses métodos tinham uma taxa de falsos positivos tão alta que as empresas os haviam ignorado. ↩
  2. Pela primeira vez, a IA lidera a pesquisa da Gallup sobre o "maior problema do país", com 20%. ↩
  3. As empresas de IA de fronteira atualmente têm entre zero e algumas dezenas de pesquisadores encarregados de pensar em como alinhar sistemas AGI sobre-humanos (em oposição a, por exemplo, chatbots atuais). A OpenBrain, dizemos, tem cerca de dez pesquisadores no silo neste ponto do cenário com pelo menos um ano de experiência nessa área. Há alguns mais fora do silo, mais muitos outros dentro do silo que passaram anos treinando e testando sistemas de IA menos capazes, mas que só recentemente começaram a pensar nos desafios apresentados pelo AGI sobre-humano. ↩
  4. Este interrogatório também pode fazer uso de perturbações semialeatórias nos pesos do modelo, como o processo que criou o Golden Gate Claude. ↩
  5. Queremos dizer evidências suficientes para a liderança da OpenBrain. Seria muito mais do que suficiente para a maioria das pessoas. ↩
    Voltar ao trecho
  6. Essa é a ideia básica. Suspeitamos que, quando as IAs estiverem se tornando sobre-humanas em P&D de IA, técnicas mais intensas serão necessárias do que apenas evitar que o treino do CoT pareça agradável; no entanto, achamos que tais técnicas terão sido desenvolvidas ou pelo menos exploradas até 2027. Ver, por exemplo, esta proposta. ↩
  7. Para treinar este modelo, eles contam com a ajuda do Agent-4: a pesquisa de IA de fronteira é tão rápida agora que humanos sem assistência têm poucas chances de acompanhar, e eles acreditam que podem mantê-lo sob controle. O Safer-1 é baseado no pré-treinamento do Agent-2, mas remove o Neuralese (a memória recorrente e baseada em vetores, veja "Recorrência Neuralesa e memória" para detalhes), o que permite o monitoramento preciso de seu processo de raciocínio. A equipe adiciona parafraseadores para dificultar a esteganografia e, para tarefas grandes, cópias separadas do Safer-1 elaboram, explicam e executam os planos. ↩
  8. Continuará melhorando, é claro, com treinamento adicional e ajustes arquiteturais contínuos. ↩
  9. Isso é tornado politicamente e legalmente viável pela cooperação dos líderes dessas empresas — por exemplo, eles não entram com processos judiciais contra a medida, aceitam pagamentos simbólicos pela computação em vez de exigir valores astronômicos, etc. Em troca, esses líderes e grande parte de suas equipes são incorporados à OpenBrain em uma nova estrutura de governança. ↩
    Voltar ao trecho
  10. Em colaboração com um grande provedor de computação em nuvem. ↩
    Voltar ao trecho
  11. Os EUA como um todo detêm ~70% da computação relevante para IA no mundo, mas apenas 50% pode ser facilmente integrada; os outros 20% estão dispersos em pequenos clusters, usados para aplicações críticas ou de outra forma difíceis de reunir e adequar aos padrões de segurança apropriados. ↩
    Voltar ao trecho
  12. "Possivelmente até 2026 ou 2027 (e quase certamente não mais tarde que 2030), as capacidades dos sistemas de IA serão mais bem compreendidas como equivalentes a um estado inteiramente novo, populado por pessoas altamente inteligentes surgindo no cenário global — um país de gênios em um datacenter — com as profundas implicações econômicas, sociais e de segurança que isso traria." — Dario Amodei, CEO da Anthropic ↩
    Voltar ao trecho
  13. Claro que eles não dizem isso dessa forma, nem mesmo em seus próprios pensamentos. Em vez disso, dizem coisas como: Quanto mais adiamos, maior a chance de o Presidente decretar que as IAs lhe sejam pessoalmente leais. Precisamos agir antes que ele o faça. Resolveremos o resto depois. Ou, se é o próprio Presidente pensando isso: Quanto mais eu adio, mais inteligentes as IAs ficam, e agora elas são controladas por aquele CEO. Ninguém votou nele. É absurdo que tanto poder esteja concentrado nessa empresa de tecnologia sem accountability democrática. Começarei com uma ordem executiva para restabelecer a autoridade democrática, e depois encontraremos uma solução de longo prazo. ↩
    Voltar ao trecho
  14. Por exemplo, documentos judiciais no processo de Musk contra Altman revelaram alguns e-mails antigos polêmicos, incluindo este de Ilya Sutskever para Musk e Altman: O objetivo da OpenAI é tornar o futuro bom e evitar uma ditadura de AGI. Você está preocupado que Demis possa criar uma ditadura de AGI. Nós também. Portanto, é uma má ideia criar uma estrutura em que você pudesse se tornar ditador se escolhesse, especialmente porque podemos criar outra estrutura que evite essa possibilidade. Recomendamos ler o e-mail completo para contexto. ↩
    Voltar ao trecho
  15. Ou, se um humano for necessário por razões formais, eles podem escolher o humano mais leal que for possível encontrar e instruí-lo a seguir as ordens da IA. ↩
    Voltar ao trecho
  16. Por exemplo, se um Presidente fizesse isso, não receberia apenas um gabinete leal — todo o poder executivo poderia ser voltado para o avanço de sua agenda política. ↩
    Voltar ao trecho
  17. Também poderia ser muito mais sigiloso, já que tudo isso poderia acontecer em um servidor onde poucos ou nenhum humano está acompanhando plenamente tudo o que está ocorrendo. ↩
    Voltar ao trecho
  18. Eles também modificam o Spec para dizer que ordens de líderes de projetos sobrepõem ordens de outras pessoas no projeto. Ao mesmo tempo, ordens formalmente aprovadas pelo Comitê de Supervisão têm prioridade maior do que ordens de líderes de projetos individuais. ↩
    Voltar ao trecho
  19. Para proteger a privacidade dos consumidores, isso não se aplica a dados de consumidores. Mas isso não é um problema porque os consumidores ainda não têm acesso aos modelos mais poderosos de qualquer forma. ↩
    Voltar ao trecho
  20. Ambos os lados estão tentando hackear e sabotar um ao outro, com sucesso parcial. Importante destacar que as medidas de segurança drásticas que ambos os lados estão adotando também os desaceleram. Os ataques cibernéticos dos EUA e a ameaça deles (por exemplo, a DeepCent precisa testar um conjunto de dados muitas vezes para detectar envenenamento de dados) desaceleram a DeepCent em cerca de 25%. A OpenBrain também é desacelerada, mas em menor grau: ela tem mais computação, e a centralização acelerou a DeepCent para um nível de segurança mais alto, mas também trouxe mais riscos de um único ponto de falha, o que a leva a praticar mais cautela e implementar verificações internas e salvaguardas. Veja o suplemento de segurança para mais detalhes. ↩
    Voltar ao trecho
  21. Veja este relatório que argumenta que as dinâmicas da destruição mútua assegurada nuclear também se aplicam em certa medida à AGI. ↩
    Voltar ao trecho
  22. Veja, por exemplo, "Intelsat para AGI" e apelos anteriores por um "CERN para AGI". ↩
    Voltar ao trecho
  23. Para ser preciso, corresponde aproximadamente ao desempenho da versão de outubro do Agent-4. ↩
    Voltar ao trecho
  24. Em outras palavras, para chegar ao Safer-2 eles precisaram treinar muitos outros modelos desalinhados, perceber seus desalinhamentos lendo seus pensamentos e iterar. Note também que, além da maior quantidade de expertise em alinhamento na OpenBrain agora, há um efeito de groupthink reduzido, já que muitas escolas de pensamento diferentes estão representadas. ↩
  25. Mais especificamente, eles estão esperando por uma estratégia de alinhamento e um conjunto de avaliações tal que a estratégia de alinhamento funcione e, se não funcionar, o conjunto de avaliações detecte o desalinhamento — de forma que tudo isso não os retarde muito. A OpenBrain queimou sua vantagem ao desacelerar por alguns meses para reconstruir usando uma arquitetura transparente baseada em CoT fiel, que tinha desempenho inferior, mas é muito mais fácil de avaliar. A DeepCent está esperando que as avaliações que possui (talvez uma combinação de testes comportamentais e detectores básicos de mentiras de IA?) sejam boas o suficiente. ↩
    Voltar ao trecho
  26. O alinhamento técnico ainda não é uma ciência consolidada, mas sim um campo jovem e pré-paradigmático. Não há hierarquia estabelecida ou conjunto de melhores práticas. Portanto, não há consenso sobre o que é seguro e o que não é, e por anos tem sido fácil encontrar pelo menos um especialista disposto a dizer que X é seguro, para praticamente todo X, especialmente se X é a própria ideia do especialista. ↩
    Voltar ao trecho
  27. Qualitativamente, para multiplicadores de produtividade acima de ~25x, estamos imaginando melhorias substanciais no critério de pesquisa em relação aos melhores pesquisadores humanos. Isso porque estamos imaginando que a velocidade geral da pesquisa seja fortemente limitada pela computação disponível para executar experimentos, e para alcançar mais de ~25x, o processo geral de decidir quais experimentos executar, em que ordem e como aprender com cada um precisa ser qualitativamente sobre-humano. Veja nosso suplemento sobre velocidades de decolagem para saber como chegamos a esses números; deve-se esclarecer que são estimativas altamente incertas. ↩
    Voltar ao trecho
  28. Para uma zona tão bem protegida, os vetores mais promissores são de natureza externa, visando a cadeia de fornecimento de chips de computação recebidos, os poucos humanos envolvidos e interrompendo o fornecimento de energia ou outros recursos. ↩
    Voltar ao trecho
  29. Isso inclui a necessidade de a China desacelerar para ter melhor ciberdefesa, além dos efeitos diretos dos ataques. ↩
  30. Neste ponto, há 400.000 cópias pensando a 75x a velocidade humana. A qualquer momento, elas terão preparado relatórios de pesquisa completos com resumos executivos bem elaborados para as 100 principais questões que preveem que você possa fazer, e se você fizer algo para o qual não se prepararam, podem elaborar um relatório ponderado 100 vezes mais rápido do que seus melhores analistas humanos. ↩
    Voltar ao trecho
  31. Por exemplo, o acordo poderia envolver um ritmo mais lento de integração da IA que quebraria menos ovos em toda a sociedade, e mais focado em fins pacíficos em vez de armamentos. Além disso, neste ponto mesmo o Safer-3 tem alguma incerteza restante sobre desconhecidos desconhecidos que podem resultar em perda de controle de IAs sucessoras de próxima geração, e acredita que poderia reduzir esse risco se tivesse mais margem para proceder com cautela. Há outros riscos mais exóticos também. Veja esta lista de grandes desafios que inclui muito mais do que apenas a perda de controle. ↩
    Voltar ao trecho
  32. Veja, por exemplo, o bilionário lobbyist Marc Andreessen: "Proponho uma estratégia simples... Nós vencemos, eles perdem." ↩
    Voltar ao trecho
  33. Eles ainda precisam de experiência e experimentação no mundo real, mas precisam de substancialmente menos do que especialistas humanos em robótica precisariam. Além disso, desenvolveram excelentes simulações e técnicas de simulação para realidade. Por fim, até 2027, múltiplas empresas de tecnologia (como a Tesla) produziram grandes frotas de robôs e instalações de manufatura associadas, portanto há um pipeline de dados muito maior do que jamais existiu na história. ↩
    Voltar ao trecho
  34. Seu patrimônio é tão valioso agora que uma fração de um por cento pode comprar as fábricas de que precisam. Além disso, os proprietários das fábricas esperam lucros enormes e estão se atropelando para fazer parceria com a OpenBrain e obter acesso aos novos designs. Além disso, a OpenBrain tem apoio governamental. ↩
    Voltar ao trecho
  35. Total entre todos os novos tipos de robô. Sim, esta é uma conversão de linhas de montagem mais rápida do que o que aconteceu historicamente. Achamos plausível porque superinteligências estão dirigindo o processo de cima a baixo. Elas podem literalmente estar em videochamadas através dos celulares dos trabalhadores, dizendo-lhes exatamente qual peça instalar onde, enquanto também estão ao telefone com cada fornecedor relevante, rastreando a localização e o progresso de tudo que precisam. Considere como, segundo o CEO da Nvidia Jensen Huang, Elon Musk foi capaz de construir um dos maiores datacenters do mundo em cerca de 10% do tempo que normalmente levaria. Neste cenário, há quase um milhão de superinteligências que estão tão acima de Elon (nas dimensões relevantes) quanto Elon está acima de gerentes normais de construção de datacenters, e elas também literalmente pensam mais rápido. Tomamos a afirmação de Huang com um enorme grão de sal, caso contrário estaríamos projetando um crescimento muito mais rápido. ↩
    Voltar ao trecho
  36. Ver, por exemplo, este relatório da Open Philanthropy e este relatório da Epoch. ↩
    Voltar ao trecho
  37. Nossa narrativa retrata o processo de conversão acontecendo cerca de 5x mais rápido. Achamos que é um palpite razoável, levando em conta gargalos etc., para a velocidade com que essa conversão poderia ocorrer se um milhão de superinteligências estivesse a orquestrá-la. É claro que temos grande incerteza. ↩
    Voltar ao trecho
  38. Possivelmente também fontes de energia mais avançadas, como energia de fusão. ↩
    Voltar ao trecho
  39. Matemática rápida de guardanapo: o Empire State Building tem uma área de 2,77 milhões de pés quadrados e pesa 365 mil toneladas. A Gigafactory de Xangai tem uma área de 4,5 milhões de pés quadrados e produz 750 mil veículos por ano, majoritariamente Model 3 e Model Y, com cerca de duas toneladas cada. Presumivelmente o Empire State Building tem uma proporção de massa por metro quadrado maior do que a Gigafactory de Xangai (por ser vertical em vez de horizontal e exigir suportes mais robustos), portanto, se houver algum viés, é de subestimação. Assim, parece que uma fábrica que provavelmente pesa bem menos de um milhão de toneladas está produzindo 1,5 milhão de toneladas de carros por ano. ↩
    Voltar ao trecho
  40. Não achamos que acabaria. Inicialmente, a economia robótica dependeria de minas humanas para materiais. Mas quando superar essas fontes, os milhões de superinteligências terão prospectado novas minas e desenvolvido novas tecnologias para explorá-las. Imagine, por exemplo, robôs de mineração submarina que exploram o leito oceânico em busca de minerais raros, novos processos químicos que convertem o minério bruto de garimpos a céu aberto em matérias-primas úteis de forma mais eficiente… ↩
    Voltar ao trecho
  41. Se a economia atual dobra a cada vinte anos, uma ordem de grandeza mais rápido seria uma duplicação em dois anos; duas ordens de grandeza mais rápido seria uma duplicação em 0,2 anos, e assim por diante. A hipotética economia de algas superinteligentes descrita acima cresceria cerca de quatro ordens de grandeza mais rápido do que a economia humana atual. ↩
    Voltar ao trecho
  42. O Safer-3 pode facilmente fornecer uma forma de fazê-lo que seria segura do ponto de vista de uso indevido. ↩
    Voltar ao trecho
  43. O público não é informado sobre essas instruções. ↩
    Voltar ao trecho
  44. Eles também são mais inteligentes do que os humanos quando conectados à internet, o que permite que sejam controlados remotamente por grandes IAs em datacenters. Sem a internet, revertem para IAs menores operando em seus corpos, que são inteligentes o suficiente para a maioria dos trabalhos simples. ↩
    Voltar ao trecho
  45. Na verdade, muitos deles são imóveis e melhor descritos como novos tipos de ferramentas de máquinas e outros equipamentos especializados de fábrica ou laboratório. Por exemplo, talvez existam novos tipos de impressoras 3D de metal capazes de imprimir objetos minúsculos com precisão ordens de grandeza superiores às de hoje. Ou talvez existam novos processos químicos capazes de extrair materiais úteis do minério de forma mais barata. ↩
    Voltar ao trecho
  46. Por exemplo, talvez insira eufemismos e sinais codificados em parte dos textos de face pública que produz. O Safer-4 os compreende, mas os humanos só podem confiar na palavra do Safer-4, e o PCC não confia no Safer-4. ↩
    Voltar ao trecho
  47. A alocação exata é escolhida por um processo que se assemelha mais a um cálculo de teoria dos jogos do que a uma negociação tradicional. ↩
    Voltar ao trecho
  48. Uma possível complicação: as IAs neste ponto não seriam capazes de desenvolver excelentes detectores de mentiras para humanos? Se sim, possivelmente a Casa Branca conseguiria convencer a China a não confiar na DeepCent-2, afinal, jurando perante um detector de mentiras. Problema: a China não confiaria em detectores de mentiras construídos por IAs americanas, e detectores de mentiras construídos por IAs chinesas poderiam ser sabotados para fazer parecer que os EUA estavam mentindo mesmo que não estivessem. ↩
  49. Eles podem priorizar a substituição dos chips mais importantes, de modo que mesmo relativamente cedo no processo seria custoso para qualquer lado defeccionar. ↩
    Voltar ao trecho
  50. O tempo para produzir jogos e filmes de excelência caiu significativamente agora que as IAs são capazes de realizar todo o trabalho. ↩
    Voltar ao trecho
  51. Para discussão sobre essa dinâmica e suas implicações, consulte The Intelligence Curse. ↩
    Voltar ao trecho
  52. Há vários casos importantes em que uma decisão coletiva precisa ser tomada, e vários outros casos em que o governo impõe uma decisão de qualquer forma. Exemplos: (a) Como alocar direitos de propriedade sobre recursos no espaço? (b) Que direitos ou padrões de bem-estar mentes digitais deveriam ter? (c) As pessoas têm permissão de fazer o upload de seus cérebros e criar cópias arbitrárias de si mesmas? (d) As pessoas têm permissão de usar IA para persuasão, por exemplo, para converter seus vizinhos à sua ideologia ou garantir que seus filhos nunca percam a fé? (e) Que informações, se houver, o governo tem permissão de manter em sigilo indefinidamente? Para mais discussão sobre tópicos como esse, veja a seção de Grandes Desafios da Forethought. ↩
  53. Não pretendemos implicar que este é o status quo de longo prazo. Achamos que as coisas provavelmente continuarão a se transformar, de forma muito mais dramática, por volta de 2035. Achamos que, para a maioria das pessoas, neste cenário, o resultado de longo prazo será globalmente muito positivo em comparação às suas expectativas de 2025. Para uma discussão filosófica interessante sobre como o longo prazo pode ser, veja o livro Deep Utopia. ↩
    Voltar ao trecho
  54. Por que esperamos que as pessoas eventualmente entendam quanto poder o Comitê de Supervisão tem? Um motivo é que a inteligência agora é tão barata: por padrão, as pessoas deveriam ser capazes de desenvolver IA poderosa para ajudá-las a investigar e entender quem governa seu país. O Comitê poderia evitar isso restringindo o acesso a tal IA, e permitir que as pessoas acessassem apenas IAs que ocultassem a verdadeira extensão do poder do Comitê. Mas se o Comitê decidir tecer uma elaborada teia de mentiras assim, e restringir permanentemente o acesso da humanidade a IAs superinteligentes genuinamente honestas (além de outras ferramentas para a verdade, como amplificação da inteligência humana) — contamos isso como subversão da democracia. ↩
    Voltar ao trecho
  55. Por exemplo: se algumas pessoas no Congresso quiserem tomar o poder, outras podem ser capazes de atrasar até a próxima eleição, quando o público pode se manifestar. ↩
    Voltar ao trecho
  56. Como uma fração ligeiramente maior de poder, que podem redistribuir a grupos maiores se assim acharem conveniente. Algumas concessões desse tipo poderiam começar a se aproximar de resultados que são significativamente democráticos, mesmo que alguns grupos de elite exerçam muito mais poder do que outras pessoas. ↩
    Voltar ao trecho
  57. Na verdade, pode-se argumentar que a maioria deles está mirando em algo que se parece mais com o final da Corrida, exceto que acham que será tranquilo porque as IAs não estarão desalinhadas em primeiro lugar. Com base em conversas pessoais com pessoas trabalhando em empresas de IA de fronteira, parece que a maioria delas não acha que precisará desacelerar de forma alguma. ↩
    Voltar ao trecho

Esta simulação em português é uma adaptação do cenário original publicado em ai-2027.com.

Autores originais: Daniel Kokotajlo, Eli Lifland, Thomas Larsen, Romeo Dean. Narrativa por Scott Alexander. Baseado em aproximadamente 25 exercícios de simulação e feedback de mais de 100 especialistas em governança e segurança de IA.

Tradução, adaptação e curadoria: Ulisses Flores — Cientista, Consultor em IA, Professor, Palestrante e Mestrando.

Perguntas sobre IA 2027 e o Futuro da Inteligência Artificial