05 Dezembro 2024
As discussões éticas sobre as ferramentas de inteligência artificial como o ChatGPT, da OpenAI, seguem a milhão no mundo da tecnologia, e até governos estão de olho nos limites dessa tecnologia —não à toa, a Itália proibiu o uso da ferramenta até que sejam feitos os devidos ajustes em termos de privacidade. Mas os problemas seguem à solta, afetando até funcionários da Samsung na Coreia do Sul.
Segundo o portal coreano Economist, alguns engenheiros da Samsung Semiconductor acabaram causando três vazamentos de dados confidenciais em apenas 20 dias. O primeiro teria ocorrido quando um deles usou o ChatGPT para revisar o código-fonte de um programa de medição da estrutura de um semicondutor.
Depois, outro empregado teria pedido ao ChatGPT para otimizar um software que ele havia criado para identificar fatores de desempenho. O terceiro vazamento, por sua vez, teria ficados a cargo de um funcionário que queria elaborar as atas de uma reunião interna por meio do sistema.
Com isso, as informações confidenciais teriam subido para o sistema da OpenAI, tornando impossível removê-las. Esse conteúdo, é claro, pode ser exposto a qualquer número de pessoas.
Para evitar que esses incidentes se repitam, a Samsung está preparando uma série de medidas, bem como limitando o tamanho das perguntas que podem ser enviadas para 1024 bytes. No caso de novos vazamentos, a empresa pode decidir por bloquear completamente o acesso ao ChatGPT. Em paralelo, a empresa coreana estaria planejando o desenvolvimento de um modelo generativo de inteligência artificial para uso interno.
Comentários