Segurança da IA: Reino Unido e Estados Unidos assinam acordo histórico

Segurança da IA: Reino Unido e Estados Unidos assinam acordo histórico

O Reino Unido e os Estados Unidos assinaram um acordo histórico para trabalhar juntos no teste de inteligência artificial (IA) avançada. O acordo assinado na segunda-feira afirma que ambos os países trabalharão juntos no desenvolvimento de métodos “robustos” para avaliar a segurança das ferramentas de IA e dos sistemas que as sustentam. É o primeiro acordo bilateral desse tipo. A ministra de tecnologia do Reino Unido, Michelle Donelan, disse que é “o desafio tecnológico definidor de nossa geração”. Ela afirmou: “Sempre deixamos claro que garantir o desenvolvimento seguro da IA é uma questão global compartilhada. Somente trabalhando juntos podemos enfrentar os riscos da tecnologia e aproveitar seu enorme potencial para nos ajudar a viver vidas mais fáceis e saudáveis”. O secretário de Estado de Ciência, Inovação e Tecnologia acrescentou que o acordo se baseia em compromissos feitos na Cúpula de Segurança da IA realizada em Bletchley Park em novembro de 2023. O evento, que contou com a presença de líderes de IA, incluindo Sam Altman da OpenAI, Demis Hassabis do Google DeepMind e o bilionário da tecnologia Elon Musk, viu tanto o Reino Unido quanto os EUA criarem Institutos de Segurança da IA que visam avaliar sistemas de IA de código aberto e fechado. Embora as preocupações com a segurança da IA tenham diminuído desde a cúpula, o setor de IA em si tem estado extremamente ocupado. A competição entre os maiores chatbots de IA, como ChatGPT, Gemini e Claude, continua acirrada. Até agora, as empresas quase exclusivamente baseadas nos EUA por trás de toda essa atividade ainda estão cooperando com o conceito de regulamentação, mas os reguladores ainda não conseguiram limitar o que essas empresas estão tentando alcançar. Da mesma forma, os reguladores não exigiram acesso a informações que as empresas de IA não estão dispostas a compartilhar, como os dados usados para treinar suas ferramentas ou o custo ambiental de executá-las. O AI Act da UE está a caminho de se tornar lei e, uma vez em vigor, exigirá que os desenvolvedores de certos sistemas de IA sejam transparentes sobre seus riscos e compartilhem informações sobre os dados utilizados. Isso é importante, depois que a OpenAI recentemente disse que não lançaria uma ferramenta de clonagem de voz que desenvolveu devido aos “riscos graves” que a tecnologia apresenta, especialmente em um ano eleitoral. Em janeiro, uma chamada robô falsa gerada por IA que afirmava ser do presidente dos EUA, Joe Biden, instou os eleitores a pular uma eleição primária em New Hampshire. Atualmente, nos EUA e no Reino Unido, as empresas de IA estão em sua maioria se regulando. A maioria dos sistemas de IA atualmente é capaz apenas de realizar tarefas inteligentes únicas que normalmente seriam realizadas por um humano. Conhecida como IA “estreita”, essas tarefas podem variar desde a rápida análise de dados até a fornecimento de uma resposta desejada a um comando. Mas há receios de que ferramentas de IA “gerais” mais inteligentes – capazes de realizar uma variedade de tarefas normalmente realizadas por humanos – possam colocar a humanidade em perigo. “A IA, assim como a ciência química, a ciência nuclear e a ciência biológica, pode ser armada e usada para o bem ou para o mal”, disse o professor Sir Nigel Shadbolt à BBC. Mas o professor da Universidade de Oxford disse que os temores em torno do risco existencial da IA “às vezes são um pouco exagerados”. “Temos que apoiar e apreciar os esforços para fazer com que grandes poderes de IA pensem e pesquisem quais são os perigos”, disse ele. “Precisamos entender o quão suscetíveis esses modelos são e também o quão poderosos eles são.” Gina Raimondo, secretária de Comércio dos EUA, disse que o acordo dará aos governos uma melhor compreensão

Deixe um comentário