A filosofia do planejamento a “longo prazo“, ou longotermismo, está tendo um momento nos Estados Unidos. Antes uma ideologia marginal entre os condenados do Vale do Silício, ela passou a receber ampla e favorável cobertura da mídia, motivar candidaturas fortemente financiadas para cargos no Congresso e atrair muitos milhões em doações e investimentos filantrópicos.
Com o aumento do interesse no GPT-4 e em outros programas de inteligência artificial, essas opiniões de longo prazo antes de nicho e preocupações com um futuro com inteligência artificial avançada começaram a ganhar adeptos convencionais, mesmo entre alguns socialistas estadunidenses.
É claro que nem todo o tratamento foi positivo. O escândalo Sam Bankman-Fried no ano passado chamou a atenção para o lado mais sombrio do movimento ao permitir que jornalistas apontassem para o profundo envolvimento da FTX e da Alameda Research com instituições de caridade de longo prazo. E seus maiores pontos de discussão foram recebidos com críticas e ridicularização de muitos espectadores. Mas, para o bem ou para o mal, não é mais a marca intelectual ininteligível de alguns futuristas tecnológicos.
A maior parte da atenção da mídia até agora, no entanto, se concentrou no papel da filosofia na indústria de tecnologia e no mundo filantrópico. Essa cobertura omite uma faceta crucial: as intervenções e ambições políticas do longotermismo, além daquelas que tocam imediatamente em seus projetos de caridade e científicos.
Talvez o mais surpreendente, documentos públicos revelam evidências de que os longotermistas foram peças-chave na escolha do presidente Joe Biden, em outubro passado, de impor controles pesados às exportações de semicondutores, uma política que muitos comentaristas estão dispostos a atribuir a elementos protecionistas e anti-China mais convencionais em Washington. Com esse tipo de peso político e determinação, o movimento merece maior escrutínio público daqui para frente.
Riscos existenciais
O longotermismo surgiu como uma escola de pensamento dentro do movimento mais amplo de “altruísmo efetivo” (EA, na sigla em inglês). Este movimento tenta projetar e avaliar instituições de caridade e contribuições de caridade com o objetivo de obter o máximo impacto positivo sobre o dólar. Embora o trabalho de EA mais divulgado e melhor recebido tenha se concentrado em áreas de causa urgentes e de curto prazo, como pobreza global e prevenção de doenças, há muito tempo há um contingente controverso dentro da comunidade mais interessado em preocupações futuristas.
Grande parte desse trabalho de longo prazo na EA tem sido sobre “riscos existenciais”, potenciais cataclismos que (supostamente) ameaçam a existência da humanidade como um todo. Esses “riscos-x”, como são chamados entre norte-americanos, vão desde coisas que parecem ter saído da ficção científica (impactos de meteoros gigantes) até o presciente (prontidão e prevenção da pandemia). Entre os juízos finais teóricos estudados por longotermistas, no entanto, um tópico tem consistentemente se destacado: a segurança da IA.
Os defensores da segurança da IA como uma área de causa geralmente temem que, de uma forma ou de outra, uma inteligência artificial avançada possa representar um risco para a sobrevivência humana. Alguns argumentam que, com objetivos até um pouco cruzados com os nossos, uma IA superinteligente estaria disposta e capaz de nos eliminar rapidamente para atingir seus objetivos.
Os controles de exportação de Biden, aliás, falharam espetacularmente em alcançar suas ambições declaradas.
Outros sugerem, de forma mais conservadora, que a IA pode ser perigosa da mesma forma que as armas nucleares: fácil de usar acidentalmente, indevidamente, difícil de prever em detalhes e com consequências de longo alcance se manuseada de forma inepta. Mas eles estão unidos em sua crença de que os avanços estrondosos na inteligência artificial podem significar um desastre para a humanidade, potencialmente até o ponto de extinção.
Com apostas tão altas, é natural que os defensores de longo prazo da segurança da IA busquem influência na política nacional (e internacional). O Future Forward, um super PAC pró-democrata com uma perspectiva explicitamente de longo prazo, esteve entre os doadores mais municiados na eleição presidencial de 2020 e, em 2022, Carrick Flynn fez uma candidatura ao Congresso dos EUA concorrendo em pautas de longotermismo. O eleitoralismo chegou para as Cassandras da desgraça da IA.
Indo puramente por suas contribuições eleitorais (bastante amplamente cobertas), no entanto, pode-se razoavelmente julgar o movimento uma atração secundária, na melhor das hipóteses, no cenário político americano mais amplo. Embora as doações do Future Forward em 2020 tenham sido extensas, poucos especialistas sugeriram que, por conta própria, viraram a maré contra Donald Trump, e a campanha de Flynn dois anos depois terminou em derrota esmagadora.
Seria um erro, no entanto, avaliar o alcance político do longotermismo puramente por sua influência eleitoral. Além das campanhas, com pouco alarde tem se destacado no âmbito de think tanks, comissões do Congresso e nomeações burocráticas, onde tem se manifestado sobre temas da maior importância nacional e global. Talvez a mais notável, até o momento, tenha sido a política dos EUA sobre a infraestrutura de microchips.
Planejamento de longo prazo para uma nova Guerra Fria
A decisão do governo Biden, em outubro do ano passado, de impor controles drásticos de exportação de semicondutores, é uma de suas mudanças políticas mais substanciais até agora. Como escreveu Branko Marcetic, da Jacobin, na época, os controles foram provavelmente o primeiro tiro em uma nova Guerra Fria econômica entre os Estados Unidos e a China, na qual ambas as superpotências (para não mencionar o resto do mundo) sentirão a dor por anos ou décadas, se não permanentemente.
A política já devastou cadeias de suprimentos críticas, perturbou mercados e despertou tensões internacionais, tudo com a promessa de mais por vir. Os semicondutores, chamados de “petróleo do século 21”, são um componente essencial em uma enorme gama de tecnologias de computação, e a disrupção emergente dos controles de exportação inevitavelmente afetará o curso de sua produção e inovação futuras, para pior.
A ideia por trás da política, no entanto, não surgiu do éter. Três anos antes de o atual governo editar a regra, o Congresso já recebia extensos depoimentos a favor de algo parecido. O longo relatório de 2019 da Comissão de Segurança Nacional sobre Inteligência Artificial sugere inequivocamente que os “Estados Unidos devem se comprometer com uma estratégia para ficar pelo menos duas gerações à frente da China em microeletrônica de ponta” e:
“modernizar os controles de exportação e a triagem de investimentos estrangeiros para proteger melhor as tecnologias críticas de uso duplo — inclusive construindo capacidade regulatória e implementando totalmente as recentes reformas legislativas, implementando controles coordenados de exportação de equipamentos avançados de fabricação de semicondutores com aliados e expandindo os requisitos de divulgação para investidores de nações concorrentes.”
O relatório da comissão faz repetidas referências aos riscos representados pelo desenvolvimento de IA em regimes “autoritários” como o da China, prevendo consequências terríveis em comparação com pesquisa e desenvolvimento semelhantes realizados sob os auspícios da democracia liberal. (Sua crítica em particular sobre a vigilância chinesa autoritária e alimentada por IA é irônica, pois também exorta ameaçadoramente: “A Comunidade de Inteligência (CI) [dos EUA] deve adotar e integrar capacidades habilitadas por IA em todos os aspectos de seu trabalho, da coleta à análise.”)
Essas ênfases sobre os perigos da IA moralmente mal informada não são por acaso. O chefe da comissão era Eric Schmidt, bilionário da tecnologia e colaborador da Future Forward, cujo empreendimento filantrópico Schmidt Futures tem laços profundos com a comunidade de longo prazo e um histórico de influência oculta sobre a Casa Branca na política científica.
O próprio Schmidt expressou preocupação com a segurança da IA, embora tingido de otimismo, opinando que “cenários apocalípticos” de IA passam despercebidos merecem “consideração ponderada”. Ele também é coautor de um livro sobre os riscos futuros da IA, com um especialista em ameaças moralmente descontroladas à vida humana do que o notório criminoso de guerra Henry Kissinger.
Também é digno de nota o membro da comissão Jason Matheny, CEO da RAND Corporation. Matheny é membro do Instituto do Futuro da Humanidade (FHI, na sigla em inglês) da Universidade de Oxford, que afirmou que o risco existencial e a inteligência das máquinas são mais perigosos do que qualquer pandemia histórica e “um tópico negligenciado nas comunidades científica e governamental, mas é difícil pensar em um tópico mais importante do que a sobrevivência humana”.
Este relatório da comissão também não foi seu último depoimento ao Congresso sobre o assunto: em setembro de 2020, ele falaria individualmente perante o Comitê de Orçamento da Câmara pedindo “controles multilaterais de exportação sobre os equipamentos de fabricação de semicondutores necessários para produzir chips avançados”, o melhor para preservar o domínio americano em IA.
O depoimento no Congresso e sua posição na RAND Corporation, além disso, não foram os únicos canais de Matheny para influenciar a política dos EUA sobre o assunto. Entre 2021 e 2022, ele atuou no Escritório de Política Científica e Tecnológica (OSTP) da Casa Branca como assistente adjunto do presidente para tecnologia e segurança nacional e como vice-diretor para segurança nacional (chefe da divisão de segurança nacional do OSTP). Como uma figura sênior do Escritório — ao qual Biden concedeu “acesso e poder sem precedentes” — conselhos sobre políticas como os controles de exportação de outubro teriam caído diretamente em seu mandato profissional.
Longe de garantir o domínio dos EUA na área, os controles de exportação de semicondutores aceleraram a fratura da comunidade internacional de pesquisa de IA em setores regionais independentes e concorrentes.
Igualmente importante, em janeiro de 2019, ele fundou o Centro de Segurança e Tecnologia Emergente (CSET) na Universidade de Georgetown, um think tank sobre questões nacionais que analistas amigáveis descreveram como tendo o longo prazo “incorporado em seu ponto de vista“. A CSET, desde a sua fundação, fez da segurança da IA uma das principais áreas de preocupação. Também não se intimidou em vincular o assunto à política externa, particularmente ao uso de controles de exportação de semicondutores para manter a vantagem dos EUA sobre a IA. Karson Elmgren, analista de pesquisa da CSET e ex-funcionário da OpenAI especializado em segurança de IA, publicou um artigo de pesquisa em junho do ano passado mais uma vez aconselhando a adoção de tais controles, e cobriu a regra de outubro favoravelmente na primeira edição da nova revista da EA Asterisk.
Os defensores das restrições mais significativas (além de Matheny) a emergir do CSET, no entanto, foram Saif Khan e Kevin Wolf. O primeiro é membro do Centro e, desde abril de 2021, diretor de tecnologia e segurança nacional do Conselho de Segurança Nacional da Casa Branca. Este último é membro sênior da CSET desde fevereiro de 2022 e tem uma longa história de serviços e conexões com a política de exportação dos EUA. Ele atuou como secretário adjunto de comércio para administração de exportações de 2010 – 17 (entre outros trabalhos no campo, tanto privados quanto públicos), e sua ampla familiaridade com o sistema de regulamentação de exportação dos EUA seria valiosa para qualquer um que aspirasse a influenciar a política sobre o assunto. Ambos seriam, antes e depois de outubro, campeões dos controles de semicondutores.
Na CSET, Khan publicou repetidamente sobre o tema, frequentemente pedindo que os Estados Unidos implementassem controles de exportação de semicondutores para conter o progresso chinês em IA. Em março de 2021, ele testemunhou perante o Senado, argumentando que os Estados Unidos devem impor tais controles “para garantir que as democracias liderem em chips avançados e que eles sejam usados para o bem”. (Paradoxalmente, no mesmo fôlego, o discurso pede aos Estados Unidos que “identifiquem oportunidades de colaborar com concorrentes, incluindo a China, para construir confiança e evitar corridas para o fundo do poço” e que “controlem rigidamente as exportações de tecnologia americana para abusadores dos direitos humanos”, como… China.)
Entre os coautores de Khan estava o ex-congressista Carrick Flynn, ex-diretor assistente do Centro para a Governança de IA da FHI. O próprio Flynn escreveu individualmente um resumo da edição do CSET, “Recomendações sobre Controles de Exportação para Inteligência Artificial”, em fevereiro de 2020. O documento, sem surpresa, defende uma regulamentação de exportação de semicondutores mais rígida, assim como Khan e Matheny.
Em fevereiro deste ano, Wolf também fez um discurso no Congresso dos EUA sobre “Avançar a segurança nacional e a política externa por meio de sanções, controles de exportação e outras ferramentas econômicas”, elogiando os controles de outubro e pedindo mais políticas na mesma linha. Nele, ele afirma conhecer as motivações específicas dos redatores dos controles:
“O BSI [Bureau of Industry and Security, agência do governo dos EUA que supervisiona políticas de exportação e segurança de tecnologia] não se baseou nas disposições tecnológicas emergentes e fundamentais da ECRA ao publicar essa regra, de modo que não precisaria buscar comentários públicos antes de publicá-la.”
Essas motivações também incluíam claramente exatamente os tipos de preocupações de IA que Matheny, Khan, Flynn e outros longtermistas há muito levantavam a esse respeito. Em seu resumo de fundo, o texto de uma regra vincula explicitamente os controles com esperanças de retardar o desenvolvimento de IA da China. Usando uma linguagem que poderia facilmente ter sido extraída de um artigo do CSET sobre o tema, o resumo alerta que “‘supercomputadores’ estão sendo usados pela RPC para melhorar os cálculos no projeto e teste de armas, incluindo armas nucleares, hipersônicas e outros sistemas avançados de mísseis, e para analisar os efeitos do campo de batalha”, bem como reforçar a vigilância dos cidadãos.
Os controles de exportação de Biden, aliás, falharam espetacularmente em alcançar suas ambições declaradas. Apesar dos danos que os controles de exportação causaram nas cadeias de suprimentos globais, a pesquisa de IA da China conseguiu continuar em ritmo acelerado. Longe de garantir o domínio dos EUA na área, os controles de exportação de semicondutores aceleraram a fratura da comunidade internacional de pesquisa em IA em setores regionais independentes e concorrentes.
Os de longo prazo, em suma, exercem desde pelo menos 2019 uma forte influência sobre o que se tornaria as regras de exportação de semicondutores da Casa Branca de Biden em outubro de 2022. Se a política não é, ela própria, o produto direto dos longtermistas institucionais, ela tem, no mínimo, o carimbo da sua aprovação entusiástica e de um acompanhamento atento.
Assim como seria um erro restringir o interesse nas ambições políticas do longo prazo exclusivamente às campanhas eleitorais, seria míope tratar seu trabalho sobre infraestrutura de semicondutores como um incidente pontual. Khan e Matheny, entre outros, permanecem em posições de considerável influência e demonstraram um compromisso em trazer preocupações de longo prazo para lidar com questões de alta política. A sofisticação política, o alcance político e o entusiasmo renovado em exibição em suas manobras de exportação de semicondutores devem render ao lobby apocalíptico da IA sua parcela justa de atenção crítica nos próximos anos.
Sobre os autores
Jacob Davis
é um escritor e ativista socialista baseado nos Estados Unidos.