Os maiores desenvolvimentos de políticas de IA de 2023

Photo of author

By Sohaib


EUEm novembro de 2022, a OpenAI lançou o ChatGPT. Em cinco dias, tinha mais de um milhão de usuários. Seis meses depois, os CEO das principais empresas de IA do mundo, e centenas de investigadores e especialistas, assinaram uma breve declaração alertando que a mitigação do risco de extinção da IA ​​deveria ser uma prioridade global na escala da prevenção da guerra nuclear.

O rápido progresso tecnológico da IA ​​e os terríveis avisos dos seus criadores provocaram uma reacção nas capitais de todo o mundo. Mas à medida que os legisladores e reguladores se apressavam a redigir as regras que traçavam o futuro da IA, muitos alertaram que os seus esforços eram insuficientes para mitigar os riscos e capitalizar os benefícios da IA.

Aqui estão os três marcos mais importantes na política de IA deste ano.

Ordem Executiva do Presidente Biden sobre IA

Em 30 de outubro, o presidente dos EUA, Joe Biden, assinou uma tão esperada ordem executiva sobre inteligência artificial. O documento de 63 páginas tentou abordar múltiplas preocupações, incluindo os riscos representados pelos sistemas de IA mais poderosos, os impactos da automação no mercado de trabalho e as formas pelas quais a IA poderia invadir os direitos civis e a privacidade.

Muitas das disposições da ordem instruem vários departamentos e agências do governo dos EUA a apresentarem orientações adicionais ou redigirem relatórios. Como tal, o impacto total da ordem executiva levará tempo a ser sentido e dependerá da forma estridente com que for implementada.

Especialistas com quem a TIME conversou logo após a publicação da ordem disseram que o Presidente atingiu os limites dos seus poderes para agir sobre a IA, o que significa que regulamentações mais vigorosas exigirão que o Congresso aprove uma lei.

Consulte Mais informação: Por que a ordem executiva de IA de Biden só vai tão longe

A reacção à ordem executiva foi largamente favorável, com muitos comentaristas elogiando a Administração pela sua resposta à tecnologia complexa e de rápido avanço. Os comentadores que promovem a liberdade económica, no entanto, avisou a ordem foi o primeiro passo no caminho para a regulamentação excessiva.

A Cúpula de Segurança de IA do Reino Unido

Dois dias depois de Biden ter assinado a Ordem Executiva da Casa Branca, funcionários de 28 países juntaram-se a importantes executivos e investigadores da IA ​​na propriedade de Bletchley Park, no Reino Unido, o berço da computação, para a primeira Cimeira de Segurança da IA. O primeiro-ministro britânico, Rishi Sunak, pressionou para que o Reino Unido liderasse os esforços mundiais para promover a segurança da IA, convocando a cimeira e estabelecendo um grupo de trabalho liderado pelo antigo investidor tecnológico Ian Hogarth, que evoluiu para o AI Safety Institute, um órgão governamental do Reino Unido que desenvolverá métodos para testar a segurança dos modelos de IA mais poderosos.

Consulte Mais informação: A Cúpula de Segurança de IA do Reino Unido termina com progresso limitado, mas significativo

Todos os países assinaram um declaração que enfatizou os riscos colocados pela IA poderosa, sublinhou a responsabilidade daqueles que criam IA para garantir que os seus sistemas são seguros e comprometeu-se com a cooperação internacional para mitigar esses riscos. A cimeira também garantiu descrições de políticas de segurança das empresas que desenvolvem os modelos de IA mais poderosos, embora os pesquisadores encontrado que muitas destas políticas não atendiam aos Melhores Práticas estabelecido pelo governo do Reino Unido antes da cimeira. Por exemplo, nenhuma das empresas permitiu que os testadores de segurança verificassem os dados nos quais seus modelos foram treinados ou forneceram os resultados das verificações de dados.


O primeiro-ministro Rishi Sunak reúne-se com a presidente da Comissão Europeia, Ursula von der Leyen, durante a cimeira de segurança da IA, a primeira cimeira global sobre a utilização segura da inteligência artificial, em Bletchley Park, em 2 de novembro de 2023, em Bletchley, Inglaterra.

Joe Giddens — Piscina WPA/Getty Images

Sunak encerrou a cúpula entrevistando o empresário bilionário Elon Musk, que lançou a nova empresa xAI este ano. Os países participantes concordaram em reunir-se novamente na Coreia do Sul em maio de 2024 e na França em novembro de 2024.

As reações à cimeira foram largamente positivas. Mariano-Florentino Cuéllar, presidente do Carnegie Endowment for International Peace, chamado a cimeira foi uma “grande conquista diplomática”. Seán Ó hÉigeartaigh, especialista em IA da Universidade de Cambridge disse a cimeira foi “promissora”, mas esse ímpeto deve ser mantido.

No entanto, alguns comentaristas criticado a falta de inclusão da sociedade civil e apelou a vozes mais diversificadas nas futuras Cimeiras de Segurança da IA. E embora as duas superpotências mundiais da IA ​​– os EUA e a China – tenham participado na Cimeira de Segurança da IA ​​do Reino Unido, uma maior cooperação está longe de ser garantida. Os EUA podem impor mais restrições à exportação de chips à China, enquanto tenta manter a sua liderança no desenvolvimento da IA, e os especialistas alertam que a cooperação entre os dois países, mesmo em questões comuns, tem sido limitada nos últimos anos.

A Lei da UE sobre IA

A UE anunciou a sua intenção de aprovar uma lei abrangente sobre IA em abril de 2021. Após mais de dois anos de desenvolvimento e negociação, a Lei da UE sobre IA entrou na fase final do processo legislativo em junho.

Em Novembro, as negociações estagnaram depois de a França, a Alemanha e a Itália terem pressionado por uma regulamentação mais leve dos modelos básicos – sistemas de IA treinados em enormes quantidades de dados que são capazes de executar uma vasta gama de tarefas, como os modelos GPT da OpenAI ou a família Gemini da Google DeepMind.

Consulte Mais informação: A regulamentação de IA da UE pode ser suavizada após resistência dos maiores membros

Os que, na Europa, eram a favor de uma regulamentação mais rigorosa, venceram e foi alcançado um acordo anunciado em 8 de dezembro. Os modelos básicos treinados usando uma quantidade suficientemente grande de poder computacional serão definidos como sistemicamente importantes e enfrentarão regulamentação adicional, como requisitos de transparência e segurança cibernética. Além disso, o ato como acordado provisoriamente proibiria certas utilizações da IA, tais como sistemas de reconhecimento de emoções utilizados em locais de trabalho ou escolas, e imporia regulamentação rigorosa sobre a IA utilizada em áreas de “alto risco”, como a aplicação da lei e a educação. Multas de até 7% da receita global poderiam ser cobradas por descumprimento.

As negociações técnicas de nível inferior continuarão em 2024 para definir os detalhes finais da lei. Se os Estados-membros continuarem a pressionar para os diluir – Presidente francês Emmanuel Macron avisou a lei proposta poderia sufocar a inovação europeia poucos dias depois de o acordo ter sido alcançado – eles ainda poderiam mudar. Além disso, a lei só entrará em vigor dois anos após sua aprovação.

Olhando para 2024

Em junho, o líder da maioria no Senado dos EUA, Chuck Schumer, anunciou que pressionaria o Congresso a aprovar uma legislação abrangente sobre IA. Desde então, Schumer tem realizado “Fóruns de Insight sobre IA” para educar políticos e funcionários sobre IA e criar impulso legislativo. O Congresso precisaria agir rapidamente para aprovar leis de IA antes que as eleições presidenciais de 2024 assumam Washington.

O secretário-geral da ONU, António Guterres, anunciou a adesão a um órgão consultivo de IA em outubro de 2023. O órgão publicará dois relatórios – o primeiro até ao final de 2023 e o segundo até ao final de agosto de 2024 – que poderão determinar a forma de um novo Agência de IA da ONU. Em setembro de 2024, a ONU acolherá a sua Cimeira do Futuro. O enviado tecnológico da ONU, Amandeep Gill, disse à TIME que, se existir vontade política, a Cimeira seria o “momento certo” para a criação de tal agência.

Mais leituras obrigatórias da TIME


Escrever para Will Henshall em will.henshall@time.com.



Leave a Comment