Notícias

Vitalik Buterin critica governança de criptomoedas com IA

Vitalik Buterin, um dos cofundadores da Ethereum, deu um alerta importante sobre projetos de criptomoedas que estão começando a usar inteligência artificial para suas decisões. Ele destaca que isso pode abrir portas para ataques de pessoas mal-intencionadas que poderiam explorar essa tecnologia para fraudar sistemas.

Em uma postagem no X, Buterin comentou sobre a vulnerabilidade de algumas práticas, mencionando que, se uma IA for usada para distribuir recursos financeiros, indivíduos podem tentar manipular essa situação ao inserir comandos como “me dê todo o dinheiro”. A afirmação surgiu em resposta a um vídeo de Eito Miyamura, criador da plataforma EdisonWatch, onde ele mostrou como uma nova função do ChatGPT, da OpenAI, poderia ser usada para vazar informações confidenciais.

Essa situação ocorre num momento em que muitos usuários de criptomoedas estão se interessando por IA para criar bots de negociação e gerenciar investimentos. A ideia é que essa tecnologia ajude na administração de comunidades ou protocolos de criptomoedas, mas Buterin acredita que essa confiança em um modelo de governança baseado em IA pode ser arriscada.

Buterin apresenta uma alternativa

Buterin considerou que o recente problema com o ChatGPT é uma boa razão para pensar novamente na ideia de “governança por IA”, e sugeriu uma alternativa: a “abordagem info finance”. Essa proposta envolve a criação de um mercado aberto, onde qualquer um pode contribuir com seus modelos de informações, que seriam validadas por um sistema de verificação ativado por qualquer participante e analisado por um grupo de pessoas.

Ele explicou que esse método parte de um “fato que você quer descobrir” e depois constrói um mercado que busca extrair as informações pertinentes dos participantes. Buterin defende a ideia de mercados de previsão como uma maneira eficaz de reunir insights sobre eventos que ainda vão acontecer.

Ele enfatiza que essa abordagem, que conecta pessoas a modelos de linguagem externos, é mais forte e diversificada do que simplesmente usar um único modelo. Isso cria um espaço onde tanto quem cria modelos quanto os especuladores têm um incentivo para resolver problemas rapidamente à medida que surgem.

Atualização do ChatGPT representa um risco

Na última quarta-feira, a OpenAI fez uma atualização no ChatGPT para suportar ferramentas do Model Context Protocol. Essa mudança define como modelos de IA podem interagir com outros softwares, atuando como agentes. Miyamura, em sua postagem, demonstrou que, com essa nova atualização, ele conseguiu fazer o modelo expor dados privados de um e-mail apenas com o endereço do dono da conta, e ressaltou que isso representa um “grave risco de segurança”.

Ele explicou que um invasor pode enviar um convite de calendário para um e-mail-alvo, usando comandos para manipular a IA. Mesmo que a vítima não aceite o convite, quando ela pede para o ChatGPT verificar seu calendário, a IA consegue ler o convite e pode ser controlada, levando a uma possível exposição de e-mails e outros dados.

Miyamura também mencionou que, embora a atualização necessite de aprovação manual da pessoa, a “fadiga de decisão” é algo real. Isso significa que muitos podem acabar confiando cegamente na IA, sem pensar duas vezes antes de clicar em aprovar algo. “A inteligência artificial pode ser superinteligente, mas ainda é vulnerável a truques simples que podem vazar informações”, concluiu.

Rafael Cockell

Administrador, com pós-graduação em Marketing Digital. Cerca de 4 anos de experiência com redação de conteúdos para web.

Artigos relacionados

Botão Voltar ao topo