sexta-feira, abril 26, 2024
HomeNotíciasMuitos líderes de tecnologia como Sam Altman ingressam no conselho federal de...

Muitos líderes de tecnologia como Sam Altman ingressam no conselho federal de segurança de IA

Os principais executivos de várias empresas líderes de tecnologia estão se juntando ao governo dos EUA Conselho de Segurança e Proteção de Inteligência Artificial. O CEO da OpenAI, Sam Altman, o chefe da Microsoft, Satya Nadella, e o CEO da Alphabet, Sundar Pichai, são alguns desses líderes tecnológicos. O recém-criado conselho consultivo federal se concentrará no uso seguro da IA ​​na infraestrutura crítica dos Estados Unidos.

O conselho de IA aconselhará o governo sobre como implantar IA com segurança em infraestruturas críticas

O recém-criado conselho federal de IA será trabalhando e aconselhando o Departamento de Segurança Interna. O seu foco principal será a implantação segura de inteligência artificial nas infraestruturas críticas do país. Eles criarão sistemas de segurança para proteger a economia, os cuidados médicos e outras indústrias importantes de quaisquer ameaças representadas pela IA. Além disso, o conselho evitará danos potenciais decorrentes da utilização de inteligência artificial na rede elétrica e no transporte.

Anúncio

O CEO da NVIDIA, Jensen Huang, também é um dos vinte líderes de tecnologia e negócios que ingressam no conselho federal de segurança de IA. O presidente-executivo da Delta Air Line, Ed Bastian, e Kathy Warden, da Northrop Grumman, também estão confirmados como parte do conselho. Relatórios do Wall Street Journal que o conselho federal de IA também incluirá acadêmicos e líderes dos direitos civis.

O conselho federal de segurança de IA foi anunciado pela administração Biden no ano passado

O Conselho de Segurança e Proteção de Inteligência Artificial ou AISSB foi anunciado pela administração Biden no ano passado. Faz parte do esforço do governo para proteger vários aspectos da infraestrutura crítica contra ameaças de IA. Exige que os criadores dos sistemas de IA mais poderosos, como o OpenAI, compartilhem seus resultados de segurança, além de outras informações críticas.

Estas empresas são obrigadas a fornecer estes resultados antes de o modelo de IA ser disponibilizado ao público. Isso ajuda a reduzir a taxa com que os criadores lançam produtos de aprendizado de máquina incompletos e potencialmente problemáticos. Jornal de Wall Street acrescenta que os membros do conselho federal de segurança de inteligência artificial realizarão sua primeira reunião em maio. Além disso, espera-se que realizem reuniões trimestralmente.

Para ficar por dentro sobre tudo que acontece no mundo da tecnologia e dos games, continue acompanhando o TecMania.

Artigos Relacionados
- Publicidade -

Mais Populares

Comentários Recentes