Mundo
O alerta de especialistas sobre os riscos da inteligência artificial para a humanidade
Compartilhe:
Web Summit Rio recebeu a presidente do aplicativo de mensagens Signal e a ex-militar que ficou conhecida por vazar milhares de documentos confidenciais dos EUA. Elas defenderam que ferramentas devem priorizar o interesse público, e não o de grandes empresas.
As empresas de tecnologia devem ser mais responsabilizadas pelos potenciais riscos de sistemas de inteligência artificial (IA), apontaram nesta terça-feira (2) duas palestrantes do Web Summit Rio, o maior evento de tecnologia do mundo.
O assunto foi discutido por Meredith Whitakker, presidente da fundação que mantém o aplicativo de mensagens com foco em privacidade Signal, e Chelsea Manning, especialista em segurança e ex-militar que ficou conhecida por um enorme vazamento de documentos confidenciais dos Estados Unidos em 2010.
Meredith apontou que as ferramentas de IA exigem uma infraestrutura de servidores significativa e uma grande quantidade de dados. Segundo ela, esses recursos estão disponíveis para um pequeno grupo de empresas, como Amazon, Microsoft e Google.
“Há apenas algumas organizações no mundo que têm os recursos exigidos para criar inteligência artificial em larga escala do começo ao fim. São as grandes empresas de tecnologia”, afirmou.
Para a presidente do Signal, se houver uma regulação sobre inteligência artificial, ela precisa se concentrar nestes recursos que estão disponíveis apenas para um pequeno grupo de empresas.
“As grandes empresas de tecnologia dizem que querem regulação, mas têm pessoas no Congresso tentando garantir que elas escrevam essa regulação. Precisamos de outras medidas que exijam que, quando a IA for adotada, ela vai contemplar o interesse público”, continuou.
Problemas de privacidade devem continuar
Chelsea Manning, que, há 13 anos, vazou para o WikiLeaks mais de 700 mil documentos militares e diplomáticos confidenciais dos EUA, afirmou que o interesse por IA é novo, mas os riscos em torno dela são antigos.
“Certamente, muitos problemas de privacidade que vemos nos últimos 15 anos continuarão. Mas também acho que, com o advento de grandes modelos [de IA] para linguagem e visão, há uma grande oportunidade”, analisou.
Para ela, a questão está em como as empresas e os desenvolvedores usam a inteligência artificial e o que desenvolvem a partir dela.
“Enquanto ‘nos movemos rapidamente e quebramos coisas’, temos que pensar nas consequências do que isso significa para as pessoas”, disse em referência ao antigo slogan do Facebook, que, em 2014, foi substituído para “mova-se rapidamente com infraestrutura estável”.
G1