Líderes de big techs, como Microsoft, Amazon e OpenAI, reuniram-se na Cúpula de Segurança da IA em Seul, realizada recentemente, para formular um acordo internacional. Entre as medidas discutidas, está uma espécie de “botão de pânico” para interromper o desenvolvimento da inteligência artificial.
O acordo entre big techs sobre IA
- Líderes de grandes empresas de tecnologia, como Microsoft, Amazon e OpenAI, se reuniram na Cúpula de Segurança da IA em Seul para discutir um acordo internacional visando a segurança da inteligência artificial;
- O acordo é apoiado por países como EUA, China, Canadá, Reino Unido, França, Coreia do Sul e Emirados Árabes Unidos, propondo práticas seguras de desenvolvimento para tecnologias de IA avançadas;
- O pacto inclui a criação de frameworks de segurança para desenvolvedores de IA, estabelecendo “linhas vermelhas” para riscos intoleráveis e medidas para prevenir o uso indevido das tecnologias, como ciberataques automatizados e produção de armas biológicas;
- As empresas se comprometeram a desenvolver um “botão de pânico” para interromper instantaneamente o desenvolvimento de IA se os riscos não forem mitigados de forma eficaz. O acordo também destaca a necessidade de transparência e prestação de contas pelas empresas de IA.
O acordo, apoiado por países como EUA, China, Canadá, Reino Unido, França, Coreia do Sul e Emirados Árabes Unidos, propõe o estabelecimento de práticas seguras de desenvolvimento para as tecnologias de IA mais avançadas.
Leia mais:
- Ambientalista diz que IA pode ajudar (mas também prejudicar) o meio ambiente
- 3 formas de acessar o ChatGPT-4 de graça
- Você deve usar “obrigado” e “por favor” no ChatGPT, Gemini e outras IAs?
Big techs vão criar medidas de segurança para IA
O pacto estipula a criação de frameworks de segurança para desenvolvedores de IA, essenciais para medir e enfrentar desafios, e prevenir o uso indevido de suas tecnologias.
Esses frameworks também definirão “linhas vermelhas” para riscos considerados intoleráveis, como ciberataques automatizados e a produção de armas biológicas, com objetivo de fortalecer a segurança contra as ameaças mais graves.
Sobre o tal “botão de pânico”, o mecanismo permitiria cessar instantaneamente o desenvolvimento de modelos de IA se a mitigação de riscos não for assegurada de modo eficaz.
O Primeiro-Ministro do Reino Unido, Rishi Sunak, enfatizou num comunicado que é a primeira vez que lideranças de IA de diferentes partes do mundo concordam com os mesmos princípios de segurança. O acordo também enfatiza a necessidade de transparência e prestação de contas pelas empresas de IA.
O post Em acordo histórico, big techs topam criar ‘botão de pânico’ para IA apareceu primeiro em Olhar Digital.