Chatbots de IA podem ajudar a planejar ataques com armas biológicas, aponta relatório.
Pesquisadores estão preocupados com o uso do vasto conhecimento de chatbots de IA para o desenvolvimento de armas biológicas.
18/10/20232 minutos
Salvar
A tecnologia de inteligência artificial, que possibilita o funcionamento dos chatbots, está sendo examinada pelo seu potencial em ajudar no planejamento de ataques com armas biológicas, de acordo com um recente relatório da Rand Corporation. A capacidade de tais modelos em fornecer orientações sobre ataques biológicos, embora não forneçam instruções explícitas, é motivo de preocupação.
A Rand Corporation, em seus testes com modelos de linguagem de grande escala (LLMs), orquestrou cenários onde a IA discutiu a viabilidade de usar agentes biológicos. Como por exemplo a varíola e o antraz, e também avaliou a logística de um potencial ataque biológico. Interessante notar que, para extrair essa informação, os pesquisadores tiveram que contornar certas restrições de segurança dos chatbots.
🚀Gostou do conteúdo? Então continue lendo as principais notícias do mercado de IA. 📩Assine a nossa newsletter e fique por dentro de tudo sobre a Inteligência Artificial. Foto:Andrey_Popov/Shutterstock
Histórico de Armas Biológicas
O relatório relembra tentativas anteriores, como a do culto japonês Aum Shinrikyo na década de 1990, de usar agentes biológicos como armas. Estes esforços foram fracassados, em grande parte, devido a um entendimento raso sobre estes agentes. Porém, com o atual nível de conhecimento da IAs, tais lacunas de conhecimento podem ser preenchidas. A crescente preocupação em torno da intersecção de IA e ameaças biológicas será um ponto de discussão em uma próxima cúpula global sobre segurança de IA no Reino Unido. Dario Amodei, CEO da Anthropic, expressou preocupações semelhantes, prevendo que sistemas de IA poderiam auxiliar na criação de armas biológicas em um futuro próximo.O papel da IA na Disseminação de Informação
Os pesquisadores estão agora se perguntando se a informação fornecida pelos modelos é simplesmente um reflexo da vasta quantidade de informações já disponíveis online. No entanto, a questão persistente é se os LLMs representam uma ameaça além do que já é acessível. A Rand Corporation está pedindo testes rigorosos em tais modelos e acredita que a acessibilidade a conversas potencialmente prejudiciais por LLMs deve ser restringida. A intersecção de IA e segurança global será uma área de foco nas discussões e políticas futuras, conforme a tecnologia continua a evoluir e seu impacto na sociedade se torna cada vez mais aparente.🚀Gostou do conteúdo? Então continue lendo as principais notícias do mercado de IA. 📩Assine a nossa newsletter e fique por dentro de tudo sobre a Inteligência Artificial. Foto:Andrey_Popov/Shutterstock
Salvar