A Samsung Electronics Co. está proibindo o uso por funcionários de ferramentas populares de IA generativa, como o ChatGPT, depois de descobrir que a equipe carregou um código confidencial na plataforma, causando um revés na disseminação dessa tecnologia no local de trabalho.
A empresa com sede em Suwon, na Coréia do Sul, notificou a equipe de uma de suas maiores divisões na segunda-feira sobre a nova política por meio de um memorando revisado pela Bloomberg News. A empresa teme que os dados transmitidos para tais plataformas de inteligência artificial, incluindo Google Bard e Bing, sejam armazenados em servidores externos, dificultando sua recuperação e exclusão, e possam acabar sendo divulgados a outros usuários, segundo o documento.
A empresa realizou uma pesquisa no mês passado sobre o uso de ferramentas de IA internamente e disse que 65% dos entrevistados acreditam que tais serviços representam um risco à segurança. No início de abril, os engenheiros da Samsung vazaram acidentalmente o código-fonte interno ao carregá-lo no ChatGPT, de acordo com o memorando. Não está claro o que a informação abrangia.
Um representante da Samsung confirmou que um memorando foi enviado na semana passada proibindo o uso de serviços generativos de IA.
“O interesse em plataformas de IA generativas, como o ChatGPT, vem crescendo interna e externamente”
“Embora esse interesse se concentre na utilidade e eficiência dessas plataformas, também há preocupações crescentes sobre os riscos de segurança apresentados pela IA generativa.”
disse a Samsung à equipe e a Samsung é apenas a mais recente grande empresa a expressar preocupação com a tecnologia. Em fevereiro, apenas alguns meses depois que o serviço de chatbot da OpenAI despertou uma onda de interesse pela tecnologia, alguns bancos de Wall Street, incluindo JPMorgan Chase & Co., Bank of America Corp. A Itália também proibiu o uso do ChatGPT por temores de privacidade, embora tenha mudado sua posição nos últimos dias.
As novas regras da Samsung proíbem o uso de sistemas generativos de IA em computadores, tablets e telefones de propriedade da empresa, bem como em suas redes internas. Eles não afetam os dispositivos da empresa vendidos aos consumidores, como smartphones Android e laptops Windows.
A Samsung pediu aos funcionários que usam o ChatGPT e outras ferramentas em dispositivos pessoais que não enviem nenhuma informação relacionada à empresa ou dados pessoais que possam revelar sua propriedade intelectual. Ele alertou que quebrar as novas políticas pode resultar em demissão.
“Pedimos que você siga diligentemente nossa diretriz de segurança e a falha em fazê-lo pode resultar em violação ou comprometimento das informações da empresa, resultando em ação disciplinar e incluindo rescisão do contrato de trabalho”, disse a Samsung no memorando.
Enquanto isso, a empresa está criando suas próprias ferramentas internas de IA para tradução e resumo de documentos, bem como para desenvolvimento de software. Também está trabalhando em maneiras de bloquear o upload de informações confidenciais da empresa para serviços externos. No mês passado, o ChatGPT adicionou um modo “anônimo” que permite aos usuários impedir que seus bate-papos sejam usados para o treinamento do modelo de IA.
“A sede está revisando as medidas de segurança para criar um ambiente seguro para usar com segurança a IA generativa para aumentar a produtividade e a eficiência dos funcionários”
disse o memorando que concluiu:
“No entanto, até que essas medidas sejam preparadas, estamos restringindo temporariamente o uso de IA generativa.”
Créditos: Bloomberg e Canva.