Comissão do Senado Brasileiro analisará projeto de IA em 120 dias

Acompanhando a onda de atenção regulatória à inteligência artificial (IA), o Brasil obtém seu plano de trabalho para discutir, analisar e, se necessário, alterar o projeto de lei sobre regulamentação da IA.

Em 12 de setembro, a Comissão Temporária Interna de Inteligência Artificial (CTIA) do Senado local votou publicamente a favor de seu próprio plano de trabalho para analisar o Projeto de Lei do Senado nº 2.338, que regulamenta a IA. De acordo com o plano de trabalho, a Comissão realizará uma série de 15 sessões, incluindo audiências públicas, durante os próximos 90 dias. Em 120 dias, deverá fazer uma avaliação complexa do documento.

projeto de lei, que visa a “proteção dos direitos e liberdades fundamentais, a valorização do trabalho e da dignidade da pessoa humana e a inovação tecnológica representada pela inteligência artificial”, foi apresentado pelo senador Rodrigo Pacheco em dezembro de 2022. Segundo o texto do Plano de trabalho, o projeto de lei “é uma proposta complexa que exige um esforço analítico cuidadoso, com vistas a garantir o bem-estar do povo brasileiro, assegurando o crescimento econômico e social”.

Durante a discussão da votação, o senador Astronauta Marcos Pontes (PL-SP), vice-presidente da Comissão, compartilhou sua preocupação com o “princípio da precaução”, incluído no projeto. Na sua opinião, esse princípio poderia resultar em restrições às tecnologias e em desvantagem para o Brasil no desenvolvimento da IA.

O tema da regulamentação da IA ​​permanece no centro da atenção do público este ano. Em 13 de Setembro, os principais executivos de algumas das maiores empresas mundiais de tecnologia e web concluíram uma reunião a portas fechadas com legisladores dos EUA em Washington DC para discutir as potenciais abordagens à regulamentação.

O “AI Insight Forum” do Senado em 13 de setembro foi organizado pelo líder da maioria no Senado, Chuck Schumer, e contou com a presença de 22 titãs da tecnologia, incluindo o proprietário do X (Twitter), Elon Musk, Sundar Pichai do Google, o CEO da Meta, Mark Zuckerberg, Sam Altman da OpenAI e o fundador da Microsoft. Bill Gates.

Créditos: Cointelegraph e Canva.

Elon Musk pede supervisão regulatória para IA

O presidente executivo do Twitter, Elon Musk, continua pressionando por mais supervisão regulatória da inteligência artificial, alegando que ela pode ser “mais inteligente do que todos os humanos em tudo” no futuro. Em um discurso de vídeo em uma conferência de IA em 5 de julho, Musk observou que os governos deveriam se preocupar com inteligência profunda, instando os reguladores a intervir para evitar seu uso indevido.

“Acho que devemos ter muito cuidado com o desenvolvimento, especialmente da inteligência artificial geral, ou inteligência muito profunda […] A inteligência artificial geral é uma inteligência de computador que é mais inteligente do que todos os humanos em tudo. Isso é algo com o qual devemos nos preocupar”

disse Musk, reconhecendo que “é importante ter algum tipo de supervisão regulatória” nessa frente.

O conceito de inteligência artificial geral, ou AGI, refere-se a um subconjunto de inteligência artificial que espera que as máquinas compitam ou até superem os humanos em inteligência. Também conhecida como IA profunda, a tecnologia adiciona habilidades cognitivas humanas a um programa, permitindo que as máquinas aprendam da mesma forma que os humanos.

No discurso, Musk também abordou veículos e robôs autônomos, observando que eles podem trazer uma “mudança muito profunda” para o mundo, acrescentando que “precisamos ter cuidado com isso para garantir que seja algo que beneficie a humanidade”.

Os comentários de Musk seguem a revelação do robô humanoide de Tesla alguns meses atrás. Chamado de “Optimus”, o protótipo foi exibido pela primeira vez no evento “AI Day” da montadora em setembro passado como uma demonstração dos mais recentes avanços da empresa em inteligência artificial.

“Com o passar do tempo, parece que, em algum momento, pode exceder a proporção de um para um, em mais robôs do que humanos e potencialmente muito maior”

comentou Elon Musk, e em uma reunião recente com a presença do presidente chinês Xi Jinping e proeminentes membros do Partido Comunista, Pequim enfatizou suas ambições de liderar a corrida global da IA. De acordo com a agência de notícias local Xinhua News Agency, os líderes chineses debateram a necessidade de “esforços dedicados para salvaguardar a segurança política e melhorar a governança de segurança dos dados da Internet e da inteligência artificial”.

Créditos: Cointelegraph e Canva.

Polygon Labs lança chatbot de IA chamado ‘Polygon Copilot’

A Polygon Labs anunciou um assistente de IA chamado Polygon Copilot em 21 de junho.

A empresa disse que o Polygon Copilot foi treinado em documentação de protocolo. Ele fornece personas que podem explicar essas informações para usuários com diferentes níveis de conhecimento.

O aplicativo pode explicar vários tópicos nos modos “iniciante” e “avançado”. Além disso, oferece um modo “degen” que fornece informações e análises relacionadas a NFTs, DeFi e carteiras. Este modo escreve com “talento” – ou, mais precisamente, fala em memes.

Os usuários também podem instruir o Polygon Copilot a criar zkEVM e NFTs baseados em proof-of-stake (POS) a partir da interface de chat do assistente.

Colocando o Polygon Copilot à prova

Durante o teste do CryptoSlate, o Polygon Copilot foi capaz de estimar um valor de mercado próximo ao limite real da MATIC em dólares quando foi solicitado a fazê-lo. Não retornou o saldo de um endereço MATIC quando solicitado. Ele forneceu instruções sobre como encontrar esse equilíbrio, embora por meio de um aplicativo CLI, e não por meio de um explorador de blocos online.

A Polygon disse que colocou limites no número de solicitações que os usuários podem enviar para evitar spam. No entanto, disse que os usuários poderiam obter mais créditos por meio de indicações e ofertas de parceiros. As configurações do Polygon Copilot mostram que os créditos são atualizados diariamente; ele também permite que os usuários insiram sua própria API OpenAI para obter créditos ilimitados.

O Polygon Copilot é alimentado pelo GPT-4 da OpenAI, embora suas configurações mostrem que outras versões do GPT podem ser usadas. O aplicativo foi desenvolvido por uma empresa chamada Layer-E.

Outras plataformas criptográficas oferecem chatbots de IA

A Polygon é apenas a mais recente empresa a lançar um assistente de IA. A Avalanche anunciou seu próprio chatbot, chamado AvaGPT, em 20 de junho.

Outros assistentes criptográficos de IA incluem o chatbot Sensei da Binance, o plug-in ChatGPT da Solana, o chatbot Amy da Crypto.com e o ToolsGPT da ByBit.

Créditos: CryptoSlate e Polygon.

Lei de IA da União Europeia é aprovada no parlamento

O Parlamento Europeu aprovou a Lei de IA da UE, uma estrutura legislativa abrangente para governança e supervisão de tecnologias de inteligência artificial na União Europeia.

A medida foi aprovada no Parlamento durante uma votação de 14 de junho que contou com o apoio da maioria ao ato na forma de 499 votos a favor, 28 contra e 93 abstenções. O próximo passo antes que o projeto se torne lei envolverá negociações individuais com membros do Parlamento Europeu para acertar os detalhes. Inicialmente proposto pela Comissão Europeia em 21 de abril, o EU AI Act é um conjunto abrangente de regras para o desenvolvimento de IA na UE.

Por um comunicado de imprensa do Parlamento Europeu:

“As regras visam promover a adoção de IA confiável e centrada no ser humano e proteger a saúde, a segurança, os direitos fundamentais e a democracia de seus efeitos nocivos.”

Uma vez implementada, a lei proibiria certos tipos de serviços e produtos de inteligência artificial, ao mesmo tempo em que limitaria ou imporia restrições a outros. Entre as tecnologias totalmente proibidas estão a vigilância biométrica, sistemas de pontuação social, policiamento preditivo, o chamado “reconhecimento de emoções” e sistemas de reconhecimento facial não direcionados. Modelos generativos de IA, como o ChatGPT da OpenAI e o Bard do Google, poderiam operar sob a condição de que suas saídas fossem claramente rotuladas como geradas por IA.

Assim que o ato se tornar lei, qualquer sistema de IA que possa “representar danos significativos à saúde, segurança, direitos fundamentais ou meio ambiente” ou “influenciar os eleitores e o resultado das eleições” será classificado como de alto risco e sujeito a uma governança adicional.

A aprovação do Parlamento da Lei de IA da UE ocorre apenas duas semanas depois que o projeto de lei dos mercados de criptoativos (MiCA) da entidade supranacional se tornou lei em 31 de maio.

O CEO da OpenAI, Sam Altman, está entre os maiores defensores da supervisão governamental da indústria de IA. Recentemente, ele testemunhou perante o Congresso durante uma audiência na qual deixou explícita sua crença de que a regulamentação é necessária. No entanto, Altman também alertou recentemente os reguladores europeus contra o excesso de regulamentação.

Na frente da criptomoeda, a diretora-gerente da Ripple para a Europa e o Reino Unido, Sendi Young, disse recentemente ao Cointelegraph que acredita que o  MiCA ajudará a facilitar um “campo de jogo nivelado” para empresas que operam no setor cripto na Europa.

Créditos: Cointelegraph e Canva.

Meta planeja colocar IA em todas as plataformas

O Facebook e o pai do Instagram, Meta, revelaram internamente vários recursos de IA que em breve serão oferecidos aos usuários, várias fontes relataram em 8 de junho.

Meta revela novas ferramentas de IA para o consumidor

A Axios disse em 8 de junho que o CEO Mark Zuckerberg e outros executivos anunciaram os recursos durante uma reunião com todos os funcionários. Uma ferramenta em desenvolvimento permite que os usuários insiram e modifiquem fotos do Instagram com um prompt de texto AI. Outra ferramenta conta com “agentes de IA” ou chatbots que oferecem assistência para entretenimento no Messenger e no WhatsApp.

Relatórios separados do The Verge sugerem que os usuários poderão gerar adesivos por meio de prompts de texto AI, separados do recurso de edição de imagem.

Ainda outro relatório do TechCrunch acrescenta que o Facebook está desenvolvendo ferramentas internas, como assistentes de produtividade da equipe – referidos por outras fontes como “Metamate” – e interfaces experimentais para interagir com agentes de IA.

Tanto a Axios quanto a TechCrunch disseram que a empresa está realizando um hackathon interno em julho com foco em IA generativa (ou IA que pode gerar conteúdo digital).

Mark Zuckerberg também disse que a empresa contribuirá com pesquisa e tecnologia de IA para a comunidade de código aberto, de acordo com o relatório da Axios.

Anúncios representam uma mudança para Meta

Até agora, a Meta se concentrou amplamente no desenvolvimento interno de IA. A empresa descreveu como a IA impulsiona a descoberta de conteúdo e a monetização durante uma chamada para investidores em abril. Em seguida, divulgou novos detalhes sobre o desenvolvimento interno de chips de IA em maio de 2023.

No entanto, a empresa começou a revelar aplicativos de IA não internos no mesmo mês, quando anunciou ferramentas de IA generativas voltadas para anunciantes.

Os esforços de IA da Meta também estão recebendo críticas dos reguladores. Os senadores levantaram preocupações sobre o modelo de linguagem LLaMA da empresa em 6 de junho. Eles afirmaram que a empresa falhou em impedir que o sistema respondesse a solicitações ilegais ou perigosas.

As atividades de criptomoeda da Meta foram amplamente abandonadas desde seu novo foco na IA. A empresa descontinuou sua criptomoeda Diem e carteira Novi em 2022 e anunciou o fim de suas atividades de NFT em março de 2023.

Créditos: CryptoSlate e Canva.

Nvidia apresenta supercomputador AI para criar sucessores do ChatGPT

A Nvidia continua avançando na corrida para desenvolver ferramentas e aplicativos de inteligência artificial (IA), à medida que a empresa revela planos para lançar mais produtos de IA.

Falando no show Computex em Taiwan em 28 de maio, o CEO da Nvidia, Jensen Huang, revelou uma nova plataforma de supercomputador AI chamada DGX GH200. O objetivo principal do supercomputador é ajudar as empresas de tecnologia a desenvolver sucessores para o popular chatbot de IA ChatGPT, de acordo com Huang.

Espera-se que grandes empresas de tecnologia como Microsoft, Meta e Alphabet do Google estejam entre alguns dos usuários pioneiros do equipamento de supercomputador.

Huang anunciou um novo serviço chamado Nvidia ACE for Games, voltado para a indústria de videogames. O ACE utilizará IA para ajudar a dar mais personalidade aos personagens de fundo nos jogos.

Além disso, a empresa planeja fazer parceria com a gigante de marketing e comunicação WPP para combinar tecnologias de IA e metaverso para reduzir os custos de publicidade. A Nvidia está planejando um novo esquema de rede que acelerará a velocidade das informações nos data centers.

Enquanto a Nvidia lidera o grupo em termos de produção de chips poderosos para alimentar aplicativos de IA, outras empresas estão correndo para se juntar ao frenesi da IA.

A Microsoft anunciou recentemente que está desenvolvendo seu próprio chip com capacidade para alimentar aplicativos do tipo ChatGPT.

Na China, os desenvolvedores estão sob sanções dos Estados Unidos, que barraram o acesso à versão mais recente dos chips Nvidia. No entanto, os desenvolvedores locais estão atualmente tentando combinações de chips e semicondutores para criar seus próprios métodos de desenvolvimento de IA.

À medida que a IA se torna mais acessível e os desenvolvedores continuam a lançar novos produtos, eles também conversam com legisladores de todo o mundo para garantir regulamentações que permitam a inovação.

No início de maio, executivos de muitas grandes empresas de tecnologia se reuniram na Casa Branca com a vice-presidente dos EUA, Kamala Harris, para discutir os perigos da IA. Os funcionários também abordaram empresas, incluindo a Nvidia, sobre a participação na avaliação pública de sistemas de IA.

Créditos: Cointelegraph e Canva.

Samsung proíbe uso de IA da equipe após detectar vazamento de dados do ChatGPT

A Samsung Electronics Co. está proibindo o uso por funcionários de ferramentas populares de IA generativa, como o ChatGPT, depois de descobrir que a equipe carregou um código confidencial na plataforma, causando um revés na disseminação dessa tecnologia no local de trabalho.

A empresa com sede em Suwon, na Coréia do Sul, notificou a equipe de uma de suas maiores divisões na segunda-feira sobre a nova política por meio de um memorando revisado pela Bloomberg News. A empresa teme que os dados transmitidos para tais plataformas de inteligência artificial, incluindo Google Bard e Bing, sejam armazenados em servidores externos, dificultando sua recuperação e exclusão, e possam acabar sendo divulgados a outros usuários, segundo o documento.

A empresa realizou uma pesquisa no mês passado sobre o uso de ferramentas de IA internamente e disse que 65% dos entrevistados acreditam que tais serviços representam um risco à segurança. No início de abril, os engenheiros da Samsung vazaram acidentalmente o código-fonte interno ao carregá-lo no ChatGPT, de acordo com o memorando. Não está claro o que a informação abrangia.

Um representante da Samsung confirmou que um memorando foi enviado na semana passada proibindo o uso de serviços generativos de IA.

“O interesse em plataformas de IA generativas, como o ChatGPT, vem crescendo interna e externamente”

“Embora esse interesse se concentre na utilidade e eficiência dessas plataformas, também há preocupações crescentes sobre os riscos de segurança apresentados pela IA generativa.”

disse a Samsung à equipe e a Samsung é apenas a mais recente grande empresa a expressar preocupação com a tecnologia. Em fevereiro, apenas alguns meses depois que o serviço de chatbot da OpenAI despertou uma onda de interesse pela tecnologia, alguns bancos de Wall Street, incluindo JPMorgan Chase & Co., Bank of America Corp. A Itália também proibiu o uso do ChatGPT por temores de privacidade, embora tenha mudado sua posição nos últimos dias.

As novas regras da Samsung proíbem o uso de sistemas generativos de IA em computadores, tablets e telefones de propriedade da empresa, bem como em suas redes internas. Eles não afetam os dispositivos da empresa vendidos aos consumidores, como smartphones Android e laptops Windows.

A Samsung pediu aos funcionários que usam o ChatGPT e outras ferramentas em dispositivos pessoais que não enviem nenhuma informação relacionada à empresa ou dados pessoais que possam revelar sua propriedade intelectual. Ele alertou que quebrar as novas políticas pode resultar em demissão.

“Pedimos que você siga diligentemente nossa diretriz de segurança e a falha em fazê-lo pode resultar em violação ou comprometimento das informações da empresa, resultando em ação disciplinar e incluindo rescisão do contrato de trabalho”, disse a Samsung no memorando.

Enquanto isso, a empresa está criando suas próprias ferramentas internas de IA para tradução e resumo de documentos, bem como para desenvolvimento de software. Também está trabalhando em maneiras de bloquear o upload de informações confidenciais da empresa para serviços externos. No mês passado, o ChatGPT adicionou um modo “anônimo” que permite aos usuários impedir que seus bate-papos sejam usados ​​para o treinamento do modelo de IA.

“A sede está revisando as medidas de segurança para criar um ambiente seguro para usar com segurança a IA generativa para aumentar a produtividade e a eficiência dos funcionários”

disse o memorando que concluiu:

“No entanto, até que essas medidas sejam preparadas, estamos restringindo temporariamente o uso de IA generativa.”

Créditos: Bloomberg e Canva.

Amazon lança novo serviço Bedrock AI para enfrentar Google Bard e OpenAI

Modelos de inteligência artificial generativa, como o ChatGPT, conquistaram o mundo da tecnologia, pois ameaçam permear o mainstream. Com o anúncio de Bedrock, fica claro que a Amazon está pronta para apostar tudo, assim como os concorrentes de Big Tech, Microsoft e Google.

A Bedrock permitirá que os usuários do Amazon Web Services (AWS) criem IA generativa a partir de modelos de fundação (FMs). O GPT-4 é um exemplo desse modelo, com o ChatGPT sendo um aplicativo de IA generativo construído sobre ele.

De acordo com uma postagem no blog anunciando o serviço, o Bedrock é “uma experiência sem servidor”, onde os usuários podem “personalizar FMs de forma privada com seus próprios dados e integrá-los e implantá-los facilmente em seus aplicativos”. Para coincidir com o lançamento da Bedrock, a Amazon também anunciou o Titan, que inclui dois novos modelos fundamentais desenvolvidos pela Amazon Machine Learning.

Os detalhes sobre o Titan são escassos no momento, com os representantes da Amazon mantendo as especificações técnicas em segredo. No entanto, o vice-presidente da AWS, Bratin Saha, disse a repórteres que a Amazon está usando “uma versão aprimorada” do Titan para exibir resultados de pesquisa na página inicial da empresa.

Os usuários não ficarão limitados aos FMs internos da Amazon, pois a empresa também anunciou a integração Bedrock para alguns dos modelos mais populares do setor, incluindo Jurassic-2, um modelo de aprendizado de idiomas multilíngue (LLM) e Claude, um agente de conversação da Anthropic construído sobre a fundação “IA Constitucional” da empresa.

A Bedrock também fornecerá acesso de API na plataforma aos modelos de Stability AI, incluindo Stable Diffusion, um popular gerador de texto para imagem. A Amazon pode estar chegando um pouco atrasada para a festa, com o lançamento do GPT-4 agora um mês no retrovisor, mas Bedrock e Titan podem ser problemáticos para os líderes do setor, graças à quase onipresença da AWS e à facilidade de -usá-lo fornece.

Os custos de treinamento de um modelo de IA generativo podem ser fenomenais. Infelizmente, uma vez que um modelo é treinado em um determinado conjunto de dados, ele fica essencialmente “sujo” com esses dados e potencialmente propenso a “alucinar” informações dele em resposta a consultas não relacionadas.

A Bedrock permite que os usuários contornem esse problema, dando a eles a opção de usar FMs preexistentes como um backbone de suporte aos seus dados. Para clientes que já estão na AWS e aqueles que trazem seus dados para o ecossistema da AWS, isso significa que seus dados permanecem tão seguros quanto normalmente na nuvem da Amazon e nunca são injetados em conjuntos de dados de treinamento.

De acordo com o anúncio da Amazon:

“nenhum dos dados do cliente é usado para treinar os modelos subjacentes e, como todos os dados são criptografados e não saem da Virtual Private Cloud (VPC) do cliente, os clientes podem confiar que seus dados permanecerão privados e confidenciais.”

A Amazon espera transformar o duelo generativo de IA entre o Bard do Google e o ChatGPT da Microsoft/OpenAI em uma batalha real com o anúncio de seu serviço Bedrock e a estreia de dois novos grandes LLMs internos.

A Baidu, outra empresa de tecnologia chinesa, tentou romper com o lançamento do Ernie – uma homenagem ao Bard do Google – mas a má recepção do produto causou uma queda de 10% nas ações da empresa.

Enquanto Titan e Bedrock se preparam para se juntar à primeira onda de modelos de IA generativos voltados para o público, empresas de tecnologia em todo o mundo estão se preparando para entrar. A empresa de tecnologia chinesa Alibaba deve lançar seu próprio chatbot de IA, chamado “Tongyi Qianwen”, na esperança de trazer alguma competição para as corporações ocidentais que atualmente dominam o espaço.

Créditos: Cointelegraph e Canva.

Meta lança ferramenta de IA que pode identificar e separar itens em imagens

Com suas ambições do Metaverso em frangalhos, a Meta agora está olhando para a IA para conduzir seu próximo estágio de desenvolvimento. Um dos projetos mais recentes da Meta, o gigante da mídia social anunciado na quarta-feira, é chamado de Segment Anything Model.

O Segment Anything ajuda os usuários a identificar itens específicos em uma imagem com apenas alguns cliques. Ainda em modo de demonstração, a empresa diz que o Segment Anything já pode tirar uma foto e identificar individualmente os pixels que compõem tudo na imagem para que um ou mais itens possam ser separados do restante da imagem.

“A segmentação – identificar quais pixels da imagem pertencem a um objeto – é uma tarefa central na visão computacional e é usada em uma ampla gama de aplicações, desde a análise de imagens científicas até a edição de fotos”

Meta escreveu em um post anunciando o novo modelo. A Meta disse que a criação de um modelo de segmentação preciso para tarefas específicas requer trabalho altamente especializado de especialistas técnicos com acesso à infraestrutura de treinamento de IA e grandes volumes de dados no domínio cuidadosamente anotados.

“Conseguimos maior generalização do que as abordagens anteriores, coletando um novo conjunto de dados de tamanho sem precedentes.”

Ross Girshick, um cientista pesquisador da Meta, disse:

“Crucialmente, neste conjunto de dados, não restringimos os tipos de objetos que anotamos.”

e Girshick acrescentou:

“Graças à escala dos dados e sua generalidade, nosso modelo resultante mostra capacidades impressionantes para lidar com tipos de imagens que não foram vistas durante o treinamento, como imagens egocêntricas, microscopia ou fotos subaquáticas.”

 A inteligência artificial generativa é um sistema de IA que gera texto, imagens ou outras mídias em resposta a solicitações. Alguns dos exemplos mais proeminentes dessa tecnologia são o ChatGPT da OpenAI e a plataforma de arte digital Midjourney.

Meta diz que o sistema Segment Anything AI foi treinado em mais de 11 milhões de imagens. Como explicou Girshick, a Meta está disponibilizando o Segment Anything para a comunidade de pesquisa sob uma licença aberta permissiva, Apache 2.0, que pode ser acessada por meio do Segment Anything no Github.

“Um aspecto fundamental das leis de privacidade é que a coleta de dados deve ser feita de forma transparente e com o consentimento total do indivíduo”

disse Lyle Solomon, principal advogado do Oak View Law Group.

“O uso de IA para reconhecimento facial sem consentimento expresso levanta questões sobre possíveis violações da lei de privacidade. Além disso, as empresas devem evitar compartilhar dados faciais com terceiros, a menos que o indivíduo tenha consentido, e qualquer compartilhamento deve aderir às disposições da lei de privacidade.”

Girshick diz também que o Segment Anything está em fase de pesquisa, sem planos de usá-lo na produção. Ainda assim, existem preocupações relacionadas à privacidade nos usos potenciais da inteligência artificial.

Em fevereiro, a Meta abandonou seus planos de lançar um metaverso para focar em outros produtos, incluindo inteligência artificial, anunciando a criação de um novo grupo de produtos focado em IA generativa. Líderes globais, cansados ​​do avanço da inteligência artificial, expressaram preocupações e abriram investigações sobre a tecnologia e o que ela significa para a privacidade e segurança do usuário após o lançamento do ChatGPT da OpenAI. A Itália já baniu o popular chatbot.

“Muitos usuários não entendem como esse processo funciona ou quais as consequências disso podem ser a longo prazo se seu rosto for usado para treinar um modelo de aprendizado de máquina sem seu consentimento”

disse Kristen Ruby, presidente de mídia social e consultora de IA Ruby Media Group.

“O maior desafio que muitas empresas enfrentam é obter acesso a dados de treinamento em larga escala, e não há melhor fonte de dados de treinamento do que aqueles que as pessoas fornecem nas redes de mídia social”

disse Kristen Ruby e que sugere verificar se uma empresa incluiu uma cláusula de aprendizado de máquina que informa aos usuários como seus dados estão sendo usados ​​e se eles podem optar por não participar de futuros modelos de treinamento. Ela observa que muitas empresas atualmente têm uma configuração padrão de opt-in, mas isso pode mudar para opt-out no futuro.

“Empregamos várias técnicas de preservação da privacidade, como desfocar rostos e outras informações de identificação pessoal (por exemplo, placas de carro)”

disse Ross Girshick que concluiu:

“Os usuários podem nos denunciar conteúdo ofensivo enviando um e-mail para segment-anything@meta.com com o id da imagem, e nós o removeremos do conjunto de dados.”

Créditos: Decrypt e Canva.

Adobe lança sua IA – Adobe Firefly

A Adobe anunciou o Firefly, o que chama de primeiro de uma nova família de modelos generativos de inteligência artificial (IA) focados na criação de imagens e efeitos de texto. Ele lança em beta hoje. A empresa diz que o Firefly é composto de vários modelos “feitos sob medida para atender clientes com uma ampla gama de habilidades e experiências técnicas, trabalhando em uma variedade de casos de uso diferentes”.

Separando-se de outras IA generativas, a Adobe diz que sua plataforma não foi construída com base em imagens roubadas; expirou.

A empresa diz que o Firefly se concentrará em imagens e efeitos de texto e foi projetado para gerar conteúdo seguro também para uso comercial.

“As centenas de milhões de imagens licenciadas de nível profissional da Adobe Stock estão entre as de mais alta qualidade do mercado e ajudam a garantir que a Firefly não gere conteúdo com base na propriedade intelectual de outras pessoas ou marcas”

diz a Adobe em seu site para divulgando o novo serviço.

“Os modelos futuros do Firefly alavancarão uma variedade de ativos, tecnologia e dados de treinamento da Adobe e outros. À medida que outros modelos são implementados, a Adobe continuará priorizando o combate a possíveis vieses nocivos.”

A Adobe diz que o Firefly é construído sobre uma abordagem “centrada no cliente” para IA generativa e é feito especificamente para beneficiar criadores e artistas, complementando suas habilidades. Especificamente, a Adobe diz que as demandas dos criadores de conteúdo cresceram significativamente – elas dobraram no ano passado, de acordo com um estudo recente da Adobe. O objetivo da IA ​​generativa da Adobe é “aliviar esse fardo” da demanda, criando um sistema de soluções que permite aos artistas trabalhar mais rápido e com menos obstáculos.

Para esse fim, a Adobe planeja permitir que os usuários do Firefly treinem a IA com seu próprio material de apoio específico, para que as imagens e os efeitos gerados se encaixem em um estilo pessoal ou linguagem de marca. A Adobe também está planejando disponibilizar o Firefly por meio de APIs em várias plataformas para permitir que os clientes se integrem a fluxos de trabalho e automação personalizados.

“A Adobe fundou a Content Authenticity Initiative (CAI) para criar um padrão global para atribuição confiável de conteúdo digital. Com mais de 900 membros em todo o mundo, o papel do CAI nunca foi tão importante”, acrescenta a Adobe, falando sobre como a Firefly não “roubará” trabalho que não está autorizado a usar.

“A Adobe está pressionando por padrões abertos da indústria usando as ferramentas de código aberto da CAI, que são gratuitas e ativamente desenvolvidas por meio da organização sem fins lucrativos Coalition for Content Provenance and Authenticity (C2PA). Esses objetivos incluem uma marca universal de credenciais de conteúdo ‘Não treinar’ na credencial de conteúdo da imagem para que os criadores solicitem que seu conteúdo não seja usado para treinar modelos. A tag de credenciais de conteúdo permanecerá associada ao conteúdo onde quer que seja usado, publicado ou armazenado. Além disso, o conteúdo gerado por IA será marcado de acordo.”

No início deste ano, a Adobe foi acusada de habilitar automaticamente sua seção “Análise de conteúdo” de suas permissões de privacidade e coleta de dados pessoais para que pudesse usar o trabalho de qualquer fotógrafo para treinar sua IA.

“A Adobe pode analisar seu conteúdo usando técnicas como aprendizado de máquina (por exemplo, para reconhecimento de padrões) para desenvolver e melhorar nossos produtos e serviços”

diz a permissão e a Adobe negou veementemente essas alegações, dizendo que não usou nenhum dado armazenado na conta da Creative Cloud de nenhum cliente para treinar IA generativa experimental. Com base em como ele treinou Firefly, isso parece ser verdade.

Os interessados ​​em experimentar o Firefly podem se inscrever para o beta no site da Adobe.

Créditos: PetaPixel e Adobe.