OpenAI inicia treinamento do sucessor do GPT-4 e cria comitê de segurança
Escondido em um blog post, o anúncio revela que a OpenAI está desenvolvendo seu próximo modelo de IA, enquanto enfrenta críticas sobre a nova composição de seu comitê de segurança.
Uma revelação inesperada
Na manhã desta terça-feira, um detalhe intrigante no site da OpenAI foi notado por leitores. Escondida em um blog post sobre o novo Comitê de Segurança e Proteção da empresa, estava a primeira confirmação aparente de que a OpenAI começou o treinamento de seu aguardado sucessor do GPT-4. “Antecipamos que os sistemas resultantes nos levarão ao próximo nível de capacidades em nosso caminho para a AGI”, ou seja, o ponto em que a IA pode realizar todas as tarefas no mesmo nível que os humanos, escreveu a empresa.
Veja a postagem completa aqui.
Realidade ainda um pouco distante
O modelo provavelmente ainda está longe de ser concluído. O GPT-5, ou qualquer que seja o nome que a OpenAI decida dar ao seu novo modelo de IA, provavelmente passará por meses de treinamento e ajustes antes de estar pronto. Enquanto o recente lançamento do GPT-4o focou em tornar as interações mais intuitivas, o próximo modelo da OpenAI deverá receber um grande aumento de poder. Analistas acreditam que ele será capaz de resolver problemas em múltiplas etapas e até mesmo tomar decisões que possam afetar o mundo real.
Segurança e seus questionamentos
Visando uma segurança efetiva para o ambicioso projeto, O grupo passará 90 dias analisando as vulnerabilidades de segurança e proteção da OpenAI. Depois, enviará um relatório ao conselho de diretores da empresa e dará ao público uma atualização sobre quais recomendações deseja que a OpenAI implemente antes de lançar o GPT-5.
No entanto, há uma ressalva: o novo comitê é composto pelos próprios executivos da OpenAI, incluindo o CEO Sam Altman. Pesquisadores e especialistas, incluindo ex-membros do conselho da empresa, argumentam que essa é a decisão errada. Eles afirmam que um órgão independente de fiscalização — que não tenha interesse no sucesso da empresa — deveria garantir que a OpenAI esteja mantendo a segurança como prioridade.
Curiosamente, a empresa desmantelou seu time de “superalinhamento” focado em segurança no início deste mês, após vários membros pedirem demissão, levantando preocupações sobre os padrões de segurança da OpenAI. Para aumentar a controvérsia, o ex-co-líder da equipe, Jan Leike, acabou de anunciar que está se juntando à concorrente Anthropic “para continuar a missão de superalinhamento” lá.
Clique aqui para entender melhor sobre a saída de Jan Leike da OpenAI.
Fontes: OpenAI e CNBC
------------------------------------------------------------------------------------------------------------------------------
🚀 Gostou do conteúdo? Então continue lendo as principais notícias do mercado de IA.
📩 Assine a nossa newsletter e fique por dentro de tudo sobre a Inteligência Artificial.
Foto: Sam Altman (@sama no X)