Startupi

Atualizações e Principais Informações do “12 days of OpenAI” – Teria a OpenAI atingido o status de AGI (Perceptibilidade Sintético Universal)?

*Por Flávio Costa

No mês de dezembro de 2024, durante os 12 dias de novidades da OpenAI, dentre várias atualizações interessantes, uma vez que a disponibilidade do Sora uma vez que resultado standalone (https://sora.com conseguível unicamente para clientes ChatGPT Plus ou Pro), foram lançados também os novos modelos o3 e o3-mini, referidos uma vez que modelos que superam capacidades humanas em algumas áreas. As primeiras avaliações mostram que o o3 pontuou 96,7% nos problemas de matemática do AIME 2024, errando unicamente UMA questão.

AGI é um concepção que representa um nível avançado de IA capaz de realizar qualquer tarefa intelectual que um ser humano consiga executar. Uma das principais distinções desse protótipo especializado seria o tino de raciocínio, ou seja, habilidades cognitivas comparáveis às humanas, incluindo planejamento, abstração e tomada de decisões em ambientes dinâmicos.

Traço do tempo para melhor entendimento dos avanços:

Setembro/2024 o1: projetado para realizar um raciocínio mais profundo antes de responder, melhorando a precisão em tarefas complexas uma vez que ciências, codificação e matemática.

Dezembro/2024 o3: se baseia na instalação do o1, oferecendo desempenho superior em tarefas de raciocínio complexas. Ele emprega técnicas de estágio por reforço para aprimorar suas habilidades de solução de problemas.

O novo protótipo se labareda “o3” em vez de “o2” para evitar potenciais conflitos de marca com a operadora de telecomunicações britânica O2.

A empresa não anunciou datas de lançamento para nenhum dos novos modelos o3, mas o CEO Sam Altman disse que o o3-mini pode ser lançado no final de janeiro/2025.

Esses avanços contribuem para o planejamento da OpenAI de desenvolvimento contínuo da AGI, que, embora represente um progresso significativo, continua sendo um esforço multíplice e contínuo. Porém, esses avanços nas capacidades de modelos de linguagem também trazem riscos. À medida que esses modelos se tornam mais inteligentes e autônomos, o potencial de danos causados por desalinhamento ou uso indevido aumenta significativamente. Isso destaca a urgência URGENTE de pesquisas em segurança de IA.

Investimentos estão sendo direcionados para áreas uma vez que o monitoramento da “enxovia de pensamento” (chain-of-thought) para detectar possíveis enganos e prometer que sistemas de IA mais avançados permaneçam alinhados aos valores humanos. O “Alinhamento Deliberativo”, é um dos exemplos desse investimento, um paradigma de treinamento que ensina diretamente aos LLMs raciocinadores o texto de especificações de segurança interpretativas e escritas por humanos, e os treina para raciocinar explicitamente sobre essas especificações antes de responder.

*Flávio Costa é profissional em cibersegurança, professor, plumitivo e palestrante. Engenheiro de Desenvolvimento de Negócios da Fortinet, instrutor solene e Subject Matter Expert (SME) da CompTIA e professor na iniciativa do Ministério da Ciência, Tecnologia e Inovação (MCTI) do Governo Federalista.

Aproveite e junte-se ao nosso conduto no WhatsApp para receber conteúdos exclusivos em primeira mão. Clique cá para participar. Startupi | Jornalismo para quem lidera inovação!
O post Atualizações e Principais Informações do “12 days of OpenAI” – Teria a OpenAI atingido o status de AGI (Perceptibilidade Sintético Universal)? aparece primeiro em Startupi e foi escrito por Convidado Peculiar