《AI sobre os riscos para a democracia e a sociedade humana》: um artigo de peso co-autorado pelo pai da IA, Yoshua Bengio, juntamente com um conjunto de 25 académicos, incluindo Audrey Tang.

動區BlockTempo

Pioneiros da aprendizagem profunda como Yoshua Bengio, autor de um livro de referência sobre IA Stuart Russell, e a embaixadora sem pasta em Taiwan Tang Feng, entre outros 25 académicos de topo, publicaram em conjunto um artigo que explica de forma sistemática as 7 principais categorias de ameaça que a IA representa para as instituições democráticas e para os sistemas sociais. O argumento central é que, mesmo que cada modelo seja perfeitamente “alinhado” pelos valores humanos, o efeito de escala da IA continuará a minar, por dentro, o funcionamento da governação democrática.
(Contexto: como eu próprio também não consigo provar que não sou AI, os especialistas forenses sugerem: combina um segredo pessoal com familiares e amigos)
(Extra de contexto: o painel de monitorização do impacto da Anthropic já está online: introduz a tua profissão e em segundos vê quanto é que o teu trabalho é consumido pela IA?)

Índice deste artigo

Alternar

  • Os 7 modos de falha da democracia sob a IA
  • Tang Feng: o caso de Taiwan, usando a democracia deliberativa para resolver o impasse da governação por IA
  • 7 recomendações e conclusões centrais

O título deste artigo publicado a 25 de março é “AI Poses Risks to Democratic and Social Systems” (Riscos que a IA coloca às instituições democráticas e aos sistemas sociais), e o elenco de autores é particularmente apelativo. Além de Yoshua Bengio, vencedor do Prémio Turing de 2018, Stuart Russell da Universidade de Berkeley, e Bernhard Schölkopf do Instituto Max Planck, também há Tang Feng (Audrey Tang) do Oxford AI Ethics Lab, bem como investigadores de peso de instituições como a Universidade de Toronto, a ETH Zurique, a Universidade de Michigan, entre outras.

O ângulo de abordagem deste artigo é diferente do da maioria dos estudos sobre segurança em IA, porque, atualmente, a investigação dominante em segurança em IA se concentra em problemas da “camada do modelo”, como alucinações, saídas tóxicas, comportamentos de recusa, ou até cenários mais extremos do tipo “IA descontrolada e o apocalipse”, etc.

Mas este artigo aponta que existe uma categoria inteira de riscos que tem sido ignorada: os danos de nível “sistémico” causados às instituições sociais e à governação democrática após a implantação em larga escala da IA.

Uma única saída de um modelo contendo conteúdo tóxico pode ser tratada com técnicas de alinhamento; porém, um milhão de submissões conformes, educadas e totalmente adequadas do ponto de vista de políticas, é suficiente para paralisar a capacidade dos órgãos governamentais de processar a opinião pública — e isso já ultrapassa o que o alinhamento consegue resolver.

Os 7 modos de falha da democracia sob a IA

Vamos explicar, de forma breve, este artigo. O texto decompõe a ameaça da IA à governação em 7 modos de falha (T1 a T7), distribuídos ao longo de um “ciclo de realimentação da governação”; podemos compreender a sociedade humana, em condições normais, como um fluxo de: sinais de entrada do sistema institucional para a sociedade (expressões políticas) → o sistema processa esses sinais (debate público) → o sistema devolve a decisão à sociedade (legislação). Porém, a IA pode introduzir fatores de rutura em cada etapa.

No extremo da “crença pública”, há dois tipos de ameaça.

Homogeneização de crenças (T1): quando a maioria das pessoas usa modelos semelhantes treinados para pensar e escrever, a diversidade da argumentação pública é comprimida, porque métodos de pós-treinamento de LLM como o RLHF suprimem sistematicamente a diversidade de opiniões nas saídas do modelo.

Reforço de crenças (T2): assistentes de IA personalizados satisfazem as opiniões existentes do utilizador; a funcionalidade de memória de longo prazo permite que esse ajustamento vá acumulando continuamente, formando um ciclo fechado de auto-confirmação. Os dados citados na investigação mostram que, quando o GPT-4 obtém dados sociodemográficos do utilizador, a probabilidade de convencer o utilizador a concordar com os seus argumentos aumenta em mais de 80%.

No extremo do “processamento institucional”, há dois riscos:

Entupimento burocrático (T3): a IA permite que qualquer pessoa produza em quase custo zero um grande volume de opiniões públicas únicas, aparentemente razoáveis, entupindo a capacidade de processamento das instituições.

Inundação cognitiva (T4): o custo para produzir conteúdos credíveis é muito mais baixo do que o custo de verificar e corrigir; o ecossistema de informação é esmagado.

No extremo da “responsabilização institucional”, há autoridade não auditável (T5): a opacidade da tomada de decisão pela IA, a escala e as barreiras de acesso, em conjunto, derrubam os mecanismos de supervisão existentes.

Centralização da normatividade (T6): quando o governo compra modelos avançados de IA, as restrições de valores dos programadores são levadas junto com o modelo para a infraestrutura pública, o que, na prática, transfere o poder normativo de funcionários eleitos para as mãos de um pequeno número de programadores.

Por fim, concentração de poder (T7) atravessa todas as etapas.

A IA substitui simultaneamente o trabalho e a participação humanos nos domínios económico, ideológico, político e militar, enfraquecendo as “alavancas” de que os cidadãos dispõem para controlar e equilibrar as instituições.

Historicamente, a concentração de poder num domínio tende a ser equilibrada por forças de contra-ataque de outros domínios, mas o carácter especial da IA está em poder enfraquecer, ao mesmo tempo, as alavancas dos cidadãos em todos os domínios.

Tang Feng: o exemplo de Taiwan, usando a democracia deliberativa para resolver o impasse da governação por IA

Tang Feng contribuiu com vários trechos fundamentais no artigo, defendendo que, em vez de apenas se reagir de forma defensiva ao impacto institucional que a IA traz, é melhor redesenhar, desde a base, a arquitetura da governação participativa.

No que toca ao entupimento burocrático (T3), Tang Feng propõe uma “plataforma estruturada de deliberação” como alternativa. Este tipo de plataforma usa técnicas de redução de dimensionalidade para agregar opiniões públicas, fazendo com que o consenso surja, em vez de deixar que quem tenha mais voz domine. Como os participantes votam sobre declarações existentes, e não submetem livremente texto, o sistema recompensa estruturalmente a agregação de posições em vez de discursos divisivos, resistindo melhor a ataques de inundação de conteúdo (flood attack) do que sistemas de comentário abertos.

Combinado com sorteio (pequenos grupos de cidadãos selecionados aleatoriamente), e verificando a identidade através de “ser escolhido” em vez de “apresentar candidatura própria”, torna-se estruturalmente difícil a realização em grande escala de personificação e impostura.

No que toca à inundação cognitiva (T4), Tang Feng cita um caso prático: a estratégia “humor vence boatos” que surgiu durante a pandemia de COVID-19 em Taiwan. Após detetar informação falsa, os órgãos governamentais produziam conteúdo verificado em poucos minutos, competindo com a informação falsa através da velocidade e da capacidade de disseminação, em vez de responder apenas removendo-a.

No que toca à centralização da normatividade (T6), Tang Feng aponta que a investigação emergente sobre “constitucionalismo coletivo por IA” (collective constitutional AI) já demonstrou que, através de processos deliberativos, amostras representativas do público podem redigir uma constituição para a IA; os modelos produzidos apresentam resultados bastante semelhantes em métricas de segurança e, em simultâneo, mostram menos enviesamento do que linhas de base concebidas pelos programadores.

O ponto-chave é que este processo deve ser federal: diferentes regimes políticos podem chegar, de forma razoável, a diferentes prioridades normativas, e uma única constituição não deve excluir esta variabilidade.

O caso mais concreto no artigo aparece na recomendação R7 (infraestruturas deliberativas para investir na governação da IA).

Em 2024, anúncios de DeepFake que se faziam passar por figuras públicas espalharam-se massivamente nas redes sociais. No mesmo ano, o Ministério do Digital Development (數發部) de Taiwan convocou 447 cidadãos selecionados aleatoriamente, que discutiram online em 44 salas virtuais de deliberação; o motor de diálogo por IA agregou, nesse mesmo dia, as suas propostas. Esta assembleia cidadã centrou-se em “a regulamentação de agentes e das ações”, incluindo a responsabilidade solidária das plataformas por anúncios de DeepFake não autorizados, a marcação obrigatória de anúncios sem assinatura, o rate limiting de serviços não conformes, e não numa rota de censura de conteúdos.

Na altura, a lei de proibição recebeu apoio bipartidário e, no espaço de um ano, os anúncios falsificados desceram 94%.

7 recomendações e conclusões centrais

O artigo apresenta 7 recomendações para fazer corresponder os principais riscos:

  • R1 Desenvolver sistemas de simulação com múltiplos agentes, para realizar testes de stress da resiliência institucional em cenários de participação em larga escala na IA
  • R2 Treinar modelos para suportar “saúde cognitiva”, indo além de simplesmente evitar danos, e promovendo objeções honestas e humildade cognitiva
  • R3 Restringir a autonomia da IA em cenários relacionados com governação, mantendo a responsabilização humana
  • R4 Criar um “nível de segurança institucional” (ISL), com limiares de governação correspondentes desencadeados pelas capacidades da IA
  • R5 Exigir que a IA institucional preserve registos de decisão e realize verificação de identidade para a participação pública
  • R6 A contratação pública de IA deve exigir interoperabilidade e uma estratégia com múltiplos fornecedores, para evitar a monopolização de normativas por uma única família de modelos
  • R7 Investir em infraestruturas de governação deliberativa, para que os próprios canais de participação democrática resistam melhor à manipulação

O artigo responde também, de forma positiva, a duas refutações comuns. A primeira afirma que “a sociedade se irá adaptar à IA”, mas o artigo salienta que, ao mesmo tempo que a IA concentra rendas económicas, também vai corroendo as capacidades políticas e organizacionais de auto-reparação das instituições, e que a velocidade de acumulação dos danos pode ser maior do que a da adaptação.

A segunda refutação afirma que “basta alinhar a sociedade para a IA”; o artigo concorda que o alinhamento é necessário, mas aponta que certos modos de falha (como ataques de entupimento com assimetria de custos, e a redução da alavancagem cidadã causada pela substituição do trabalho) ainda ocorrerão mesmo em cenários de alinhamento perfeito do modelo.

A conclusão do artigo refere que a resiliência institucional não precisa de ser construída do zero: as atuais iniciativas de tecnologia cidadã já provaram que deliberação estruturada e governação participativa podem operar à escala de um país. No entanto, continuar a atribuir estas ferramentas à governação por IA permanece um desafio de investigação bastante aberto.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário