NIST estabelece um consórcio para segurança de IA

13 de fevereiro de 2024 às 13:31
NIST estabelece um consorcio para seguranca de IA

Instituto Nacional de Padrões e Tecnologia cria Instituto de Segurança de IA

Imagem: Adobe/Avôs

O Instituto Nacional de Padrões e Tecnologia estabeleceu o Instituto de Segurança de IA em 7 de fevereiro para determinar diretrizes e padrões para medição e política de IA. As empresas de IA dos EUA e as empresas que fazem negócios nos EUA serão afetadas por essas diretrizes e padrões e poderão ter a oportunidade de contribuir sobre eles.

O que é o consórcio do US AI Safety Institute?

O US AI Safety Institute é um grupo de pesquisa conjunto dos setores público e privado e um espaço de compartilhamento de dados para “criadores e usuários de IA, acadêmicos, pesquisadores do governo e da indústria e organizações da sociedade civil”, de acordo com o NIST.

CONTINUA DEPOIS DA PUBLICIDADE - OTZADS

As organizações podem se inscrever para se tornarem membros entre 2 de novembro de 2023 e 15 de janeiro de 2024. De mais de 600 organizações interessadas, NIST escolheu 200 empresas e organizações para se tornarem membros. As organizações participantes incluem Apple, Anthropic, Cisco, Hewlett Packard Enterprise, Hugging Face, Microsoft, Meta, NVIDIA, OpenAI, Salesforce e outras empresas, instituições acadêmicas e organizações de pesquisa.

Esses membros trabalharão em projetos incluindo:

  • Desenvolver novas diretrizes, ferramentas, métodos, protocolos e melhores práticas para contribuir com os padrões da indústria para o desenvolvimento e implantação seguros, protegidos e IA confiável.
  • Desenvolver orientações e parâmetros de referência para identificar e avaliar as capacidades de IA, especialmente aquelas que podem causar danos.
  • Desenvolvimento de abordagens para incorporar práticas de desenvolvimento seguras para IA generativa.
  • Desenvolvimento de métodos e práticas para o aprendizado de máquina em equipe vermelha com sucesso.
  • Desenvolver maneiras de autenticar conteúdo digital gerado por IA.
  • Especificar e incentivar as competências da força de trabalho em IA.

“A IA responsável oferece um enorme potencial para a humanidade, as empresas e os serviços públicos, e a Cisco acredita firmemente que uma abordagem holística e simplificada ajudará os EUA a concretizar com segurança todos os benefícios da IA”, disse Nicole Isaac, vice-presidente de políticas públicas globais da Cisco. em uma declaração ao NIST.

VEJA: Quais são as diferenças entre IA e aprendizado de máquina? (TechRepublic Premium)

“Trabalhar em conjunto entre a indústria, o governo e a sociedade civil é essencial se quisermos desenvolver padrões comuns em torno de uma IA segura e confiável”, disse Nick Clegg, presidente de assuntos globais da Meta, em declaração ao NIST. “Estamos entusiasmados em fazer parte deste consórcio e trabalhar em estreita colaboração com o AI Safety Institute.”

Uma omissão interessante na lista de membros do AI Safety Institute dos EUA é o Future of Life Institute, uma organização global sem fins lucrativos com investidores como Elon Musk, criada para evitar que a IA contribua para “riscos extremos em grande escala”, como a guerra global.

A criação do AI Safety Institute e seu lugar no governo federal

O US AI Safety Institute foi criado como parte dos esforços envidados por Ordem Executiva do Presidente Joe Biden sobre Proliferação e Segurança da IA em outubro de 2023.

O US AI Safety Institute está sob a jurisdição do Departamento de Comércio. Elizabeth Kelly é a diretora inaugural do instituto e Elham Tabassi é seu diretor de tecnologia.

Quem está trabalhando na segurança da IA?

Nos EUA, a segurança e a regulamentação da IA a nível governamental são geridas pelo NIST e, agora, pelo Instituto de Segurança da IA dos EUA, sob a responsabilidade do NIST. As principais empresas de IA nos EUA trabalharam com o governo em incentivando a segurança da IA e competências para ajudar a indústria da IA a construir a economia.

As instituições acadêmicas que trabalham na segurança da IA incluem Universidade de Stanford e Universidade de Maryland e outros.

CONTINUA DEPOIS DA PUBLICIDADE - OTZADS

Um grupo da internacional organizações de segurança cibernética estabeleceram o Diretrizes para o desenvolvimento seguro de sistemas de IA em novembro de 2023 para abordar a segurança da IA no início do ciclo de desenvolvimento.

Com informações

Mais sobre:
SUGESTÕES PARA VOCÊ