COMPARTILHAR | IMPRIMIR | O EMAIL
Antes da Covid, eu me descreveria como um otimista em relação à tecnologia. Novas tecnologias quase sempre chegam em meio a temores exagerados. Dizia-se que as ferrovias causariam colapsos mentais, que as bicicletas tornariam as mulheres inférteis ou insanas, e que a eletricidade primitiva seria culpada por tudo, desde a decadência moral até o colapso físico. Com o tempo, essas ansiedades se dissiparam, as sociedades se adaptaram e os padrões de vida melhoraram. O padrão era suficientemente familiar para que a inteligência artificial parecesse seguir o mesmo caminho: disruptiva, às vezes mal utilizada, mas, em última análise, administrável.
Os anos da Covid abalaram essa confiança — não porque a tecnologia falhou, mas porque as instituições falharam.
Em grande parte do mundo, governos e órgãos especializados responderam à incerteza com intervenções sociais e biomédicas sem precedentes, justificadas por modelos de pior cenário e aplicadas com notável certeza. Hipóteses concorrentes foram marginalizadas em vez de debatidas. Medidas emergenciais se consolidaram em políticas de longo prazo. Quando as evidências mudaram, as admissões de erro foram raras, e a responsabilização, ainda mais. A experiência expôs um problema mais profundo do que qualquer erro político isolado: as instituições modernas parecem mal preparadas para lidar com a incerteza sem extrapolar seus limites.
Essa lição agora pesa muito nos debates sobre inteligência artificial.
A divisão de risco da IA
De modo geral, a preocupação com a IA avançada se divide em duas correntes. Um grupo — associado a pensadores como Eliezer Yudkowsky e Nate Soares — argumenta que uma IA suficientemente avançada é catastroficamente perigosa por natureza. Em sua formulação deliberadamente contundente, Se alguém constrói, todos morremO problema não são as más intenções, mas os incentivos: a competição garante que alguém vai burlar as regras, e uma vez que um sistema escapa a um controle efetivo, as intenções deixam de importar.
Um segundo grupo, que inclui figuras como Stuart Russell, Nick Bostrom e Max Tegmark, também leva a sério os riscos da IA, mas está mais otimista de que o alinhamento, a governança cuidadosa e a implementação gradual podem manter os sistemas sob controle humano.
Apesar das suas diferenças, ambos os lados convergem para uma conclusão: o desenvolvimento irrestrito da IA é perigoso e alguma forma de supervisão, coordenação ou contenção é necessária. Onde divergem é na viabilidade e na urgência. O que raramente se examina, no entanto, é se as instituições que se espera que forneçam essa contenção são elas próprias adequadas para o papel.
A Covid-19 sugere motivos para dúvida.
A Covid não foi apenas uma crise de saúde pública; foi uma experiência em tempo real de governança conduzida por especialistas em um contexto de incerteza. Diante de dados incompletos, as autoridades optaram repetidamente por intervenções extremas, justificadas por danos hipotéticos. A dissidência foi frequentemente tratada como uma falha moral, e não como uma necessidade científica. As políticas foram defendidas não por meio de análises transparentes de custo-benefício, mas sim por apelos à autoridade e ao medo de futuros hipotéticos.
Esse padrão é importante porque revela como as instituições modernas se comportam quando as questões em jogo são de ordem existencial. Os incentivos se deslocam para a tomada de decisões, o controle da narrativa e a certeza moral. A correção de erros torna-se custosa em termos de reputação. A precaução deixa de ser uma ferramenta e se transforma em doutrina.
A lição não é que os especialistas sejam singularmente falhos. É que as instituições recompensam o excesso de confiança com muito mais frequência do que a humildade, especialmente quando a política, o financiamento e o medo público se alinham. Uma vez que poderes extraordinários são reivindicados em nome da segurança, raramente são entregues de bom grado.
São precisamente essas dinâmicas que agora se observam nas discussões sobre a supervisão da IA.
A Máquina do "E se"
Uma justificativa recorrente para a intervenção estatal expansiva é o hipotético agente mal-intencionado: E se um terrorista construir isso? E se um estado pária fizer isso? Dessa premissa decorre o argumento de que os governos devem agir de forma preventiva, em grande escala e, muitas vezes, em segredo, para evitar catástrofes.
Durante a Covid, uma lógica semelhante justificou amplas agendas de pesquisa biomédica, autorizações de emergência e controles sociais. O raciocínio era circular: porque algo era perigoso. poder Caso isso aconteça, o Estado deve tomar medidas extraordinárias agora — medidas que, por si só, acarretam riscos significativos e pouco compreendidos.
A governança da IA está sendo cada vez mais enquadrada dessa mesma forma. O perigo não reside apenas na possibilidade de os sistemas de IA se comportarem de maneira imprevisível, mas também no fato de que o receio dessa possibilidade legitime uma governança de emergência permanente — o controle centralizado sobre a computação, a pesquisa e os fluxos de informação — sob a alegação de que não há alternativa.
Risco privado, risco público
Uma distinção pouco considerada nesses debates é entre os riscos gerados por agentes privados e os riscos gerados pela autoridade estatal. As empresas privadas são limitadas — de forma imperfeita, mas significativa — pela responsabilidade civil, pela concorrência, pela reputação e pela disciplina de mercado. Essas limitações não eliminam os danos, mas criam ciclos de retroalimentação.
Os governos operam de forma diferente. Quando os Estados agem em nome da prevenção de catástrofes, o feedback enfraquece. Falhas podem ser reclassificadas como necessidades. Custos podem ser externalizados. O sigilo pode ser justificado pela segurança. Danos hipotéticos futuros tornam-se alavancas políticas no presente.
Diversos pensadores da IA reconhecem isso implicitamente. Bostrom alertou sobre os efeitos de "dependência" — não apenas dos sistemas de IA, mas também das estruturas de governança criadas em momentos de pânico. O apelo de Anthony Aguirre por moderação global, embora logicamente coerente, depende de órgãos de coordenação internacional cujo histórico recente de humildade e correção de erros é fraco. Mesmo propostas mais moderadas pressupõem reguladores capazes de resistir à politização e à expansão descontrolada de suas atribuições.
A Covid-19 nos dá poucos motivos para termos confiança nessa suposição.
O Paradoxo da Supervisão
Isso nos leva a um paradoxo preocupante no cerne do debate sobre IA. Se alguém realmente acredita que a IA avançada deve ser limitada, desacelerada ou interrompida, são os governos e as instituições transnacionais que provavelmente detêm o poder para fazê-lo. No entanto, são precisamente esses atores cujo comportamento recente inspira a menor confiança no uso moderado e reversível desse poder.
A construção de situações de emergência é complexa e persistente. A autoridade adquirida para gerenciar riscos hipotéticos tende a se consolidar e expandir. As instituições raramente rebaixam sua própria importância. No contexto da IA, isso levanta a possibilidade de que a resposta aos riscos da IA fortaleça sistemas de controle frágeis e politizados, mais difíceis de desmantelar do que qualquer tecnologia individual.
Em outras palavras, o perigo não reside apenas no fato de a IA escapar ao controle humano, mas também no fato de o medo da IA acelerar a concentração de poder em instituições que já se mostraram lentas em admitir erros e hostis à dissidência.
Repensando o Risco Real
Este argumento não defende a complacência em relação à IA, nem nega que tecnologias poderosas possam causar danos reais. Ele defende a ampliação da perspectiva. A falha institucional é, em si, uma variável existencial. Um sistema que pressupõe uma governança benevolente e autocorretiva não é mais seguro do que um que pressupõe uma superinteligência benevolente e alinhada.
Antes da Covid, era razoável atribuir a maior parte do pessimismo tecnológico ao viés de negatividade humana — a tendência de acreditar que os desafios da nossa geração são singularmente incontroláveis. Depois da Covid, o ceticismo parece menos um viés e mais uma consequência da experiência.
A questão central no debate sobre IA, portanto, não é apenas se as máquinas podem ser alinhadas aos valores humanos, mas se as instituições modernas podem ser confiáveis para gerenciar a incerteza sem amplificá-la. Se essa confiança foi corroída — e a Covid sugere que sim — então os apelos por uma supervisão abrangente da IA merecem pelo menos tanta atenção quanto as alegações de inevitabilidade tecnológica.
O maior risco talvez não seja o de a IA se tornar poderosa demais, mas sim o de que o medo dessa possibilidade justifique formas de controle que, mais tarde, descobrimos serem muito mais difíceis de tolerar — ou de evitar.
-
Roger Bate é um Brownstone Fellow, membro sênior do International Center for Law and Economics (janeiro de 2023 até o presente), membro do conselho da Africa Fighting Malaria (setembro de 2000 até o presente) e membro do Institute of Economic Affairs (janeiro de 2000 até o presente).
Ver todos os posts