OpenAI, dona do ChatGPT, cria equipe anticatástrofe para conter riscos da IA
A OpenAI anunciou que criou uma equipe para avaliar e investigar modelos de IA para proteção contra “riscos catastróficos”.
31/10/20232 minutos
Salvar
A OpenAI anunciou a criação de uma nova equipe chamada "Preparedness" (Preparação) dedicada a avaliar e investigar riscos catastróficos relacionados à Inteligência Artificial (IA). A equipe será liderada por Aleksander Madry, diretor do Center for Deployable Machine Learning do MIT.
🚀Gostou do conteúdo? Então continue lendo as principais notícias do mercado de IA. 📩Assine a nossa newsletter e fique por dentro de tudo sobre a Inteligência Artificial.
Amplas Categorias de Risco da IA
A equipe Preparedness terá a responsabilidade de rastrear, prever e proteger contra riscos futuros associados a sistemas de IA. Incluindo ameaças como persuadir e enganar pessoas, bem como a geração de código malicioso na ferramenta. Além de ameaças mais tradicionais associados à IA, a OpenAI também considerará riscos relacionados a ameaças químicas, biológicas, radiológicas e nucleares no contexto de modelos de IA. Nesse sentindo, a OpenAI também está incentivando a comunidade a contribuir com ideias para estudos de risco. A empresa está oferecendo um prêmio de US$ 25.000 e a oportunidade de emprego na equipe Preparedness para as dez melhores sugestões.Política de Desenvolvimento Informada sobre Riscos da IA
A equipe também desenvolverá uma política de desenvolvimento informada sobre riscos. Nesse caso, a equipe detalhará a abordagem da OpenAI para avaliar modelos de IA, ferramentas de monitoramento, ações de mitigação de riscos e sua estrutura de governança. A OpenAI reconhece que modelos de Inteligência Artificial altamente capazes podem trazer benefícios significativos, mas também representam riscos graves. A equipe Preparedness tem como objetivo garantir que a empresa esteja preparada para abordar esses riscos e garantir a segurança da IA. “Acreditamos nisso... Os modelos de IA, que excederão as capacidades atualmente presentes nos modelos mais avançados existentes, têm o potencial de beneficiar toda a humanidade”, escreve a OpenAI em um post no seu blog. A criação da equipe Preparedness segue o anúncio anterior da OpenAI sobre a formação de uma equipe para estudar e controlar formas emergentes de IA superinteligente. Assim, a emepresa reconhece mais uma vez a necessidade de pesquisas e medidas para limitar e restringir IA com capacidades superiores às humanas.🚀Gostou do conteúdo? Então continue lendo as principais notícias do mercado de IA. 📩Assine a nossa newsletter e fique por dentro de tudo sobre a Inteligência Artificial.
Salvar