• LOGO_DRAFTERS_NEGATIVO
  • VBT_LOGO_NEGATIVO
  • Logo

“Estamos em um momento muito complexo, porque é preciso regular assuntos que não são compreendidos por aqueles que regulam”

Marina Audi - 18 maio 2023
Priscila Reis, mestre em Inteligência Artificial e cofundadora da Layer Two.
Marina Audi - 18 maio 2023
COMPARTILHAR

Hoje, muita gente conversa sobre ChatGPT e se coloca como “especialista em Inteligência Artificial”. A advogada baiana Priscila Reis, 40, tomou como missão educar pessoas sobre o assunto – mas se recusa a adotar esse título. 

“Acho que ninguém é especialista em IA ainda, porque é uma tecnologia muito complexa”, diz Priscila, sócia-fundadora da Layer Two, uma consultoria cujo foco é auxiliar empresas a desenvolverem projetos e produtos baseados em tecnologias emergentes como blockchain, IA e Web3.

(Em vez de especialista em IA, Priscila prefere designar-se mestre, uma vez que concluiu o mestrado com foco em Inteligência Artificial na PUC-SP.) 

Ela começou sua  trajetória profissional na Bahia, atuando na área de direito empresarial. Com a promulgação do Marco Civil da Internet, em 2014, Priscila vislumbrou que o mercado estava prestes a mudar – e se especializou em direito digital. Passou então a trabalhar com advocacia convencional assessorando iniciativas e pessoas que precisavam do conhecimento sobre legislação e regulações para contratos de e-commerce e proteção de dados. 

Em 2018, quando a GDPR, a lei de proteção de dados europeia, entrou em vigor, ela percebeu que era hora de dar outro passo adiante. O mundo já entrava nos trilhos da lógica de dados e em breve direito digital não seria um diferencial, mas sim uma commodity

Foi então que a advogada colidiu com a tecnologia que considera a mais disruptiva e poderosa de todos os tempos – justamente a Inteligência Artificial. Priscila começou a estudá-la sob a ótica do direito e, em especial, da ética. 

Priscila e a sócia Catarina Papa criaram a Layer Two em janeiro deste ano. A proposta é pavimentar a trilha de novos projetos tanto em termos técnicos quanto jurídicos e éticos. 

“Iniciamos com a parte de aprendizagem sobre as tecnologias, compartilhamos conhecimentos sobre possibilidades e ferramentas”, diz Priscila. “Depois, fazemos um planejamento estratégico jurídico com base em leis e projetos de lei – do Brasil ou de fora – para vermos o caminho que a empresa deve e pode seguir para que não gaste recursos [à toa]. Aí juntamos parceiros e tiramos o projeto do cliente do papel.” 

Hoje, além da Layer Two, Priscila dá palestras e pilota no LinkedIn o MulherIA, grupo de empoderamento feminino voltado para mulheres interessadas em ampliar seus conhecimentos sobre tecnologia.

Na conversa a seguir com o Draft, Priscila Reis conta por que acredita que já passamos do ponto de discutir a proteção dos dados dos usuários e chegamos a um outro momento – debater a regulamentação da inteligência artificial.

Como você veio a se interessar pela área de tecnologia?
Sou advogada, tenho 18 anos de formada. A base da minha carreira sempre foi na área de empresas. Eu trabalhava com contratos, constituição de empresas e clientes estrangeiros.

Depois que o meu filho nasceu, em 2006, tive um problema de saúde e isso me tirou do trilho do escritório Menezes, Magalhães, Coelho & Zarif Advogados, do dia a dia da advocacia. 

Lá atrás, em 2008, resolvi criar um blog de viagem, o Voali, que não tinha nada a ver com o que eu fazia na advocacia. Eu cuidava do meu filho que era pequeno, tinha 2 anos, e era uma forma de trabalhar com algo que eu achava divertido e de me inserir no universo da tecnologia, que me atraía muito. 

Criei o Voali antes de existir Instagram [lançado em outubro de 2010], eu cheguei a viver de blog e aprendi muito sobre o universo da internet – como você se comunica ali, o que era SEO [otimização para motores de busca], como escrever bem, coisa de que sempre gostei

Quando chegou o momento de voltar pro direito, achei que seria muito oportuno mesclar direito e internet, direito e tecnologia. 

O Voali existe, mas não o trabalho mais profissionalmente. No instagram @voali ainda dou algumas dicas de tendências, tecnologia e viagens. 

O blog surgiu pelo seu interesse por viagem ou mais pelo seu interesse em tecnologia?
Foi pelo interesse por viagem, mas era uma forma de eu me comunicar com o mundo, um jeito de transmitir em palavras aquilo que vivia. Acho que foi uma maneira de eu me inserir no universo da comunicação – e a internet me parecia o melhor lugar pra isso. 

Antes, eu anotava as dicas dos lugares em caderninhos e as pessoas pediam. É como em geral começa um blog de viagem. 

Na época havia o Blogger [plataforma de criação de blogs e uma das opções mais usadas pelos iniciantes na produção de conteúdo para web], depois mudou para a plataforma WordPress e comecei a mexer.

Passei, então, a me interessar pelo que estava por trás – como escrever bem, ranquear bem, otimizar o trabalho para ele ser transformado num negócio. Foi esse aprendizado das técnicas de escrita e de otimização que me posicionou, na época, como um blog de sucesso 

Fui convidada por alguns países a fazer viagens – fui pra França, pra ilhas no meio do oceano Índico – e sempre fazia parceria com hotéis ao redor do mundo. Era um trabalho com muitos benefícios só que ainda não era como a economia criativa de hoje, que é muito monetizada. 

Em 2014, surgiu no Brasil a primeira lei que passou a regulamentar o universo da internet, o Marco Civil da Internet [projeto discutido desde 2009 que se transformou na Lei 12.965, elaborada com base em três pilares: neutralidade da rede, liberdade de expressão e privacidade], que trouxe direitos e deveres nesse universo para os provedores de serviço como Google e Facebook. 

Ao ler sobre isso, achei que era o meu gancho para voltar pro direito. Eu nunca tinha deixado de fazer alguns trabalhos jurídicos como freelancer, mas a advocacia não era mais a minha principal profissão. 

Com o Marco Civil da Internet eu voltei com tudo. Montei, em 2015, o primeiro escritório da Bahia focado exclusivamente em direito digital – Reis Magalhães & Pereira Advogados, especializado em contratos de e-commerce e proteção de dados

Não tinha nem mercado pra isso na Bahia – não tinha público, nem empresa de tecnologia. A gente batia nas portas para mostrar o que podíamos fazer – talvez proteção de dados, uma vez que já se falava na Europa de políticas de privacidade, por conta do projeto da GDPR [regulamento do direito europeu sobre privacidade e proteção de dados pessoais, aprovado em 2016].

Pensei em criar um negócio pautado nisso, porque achava que o futuro seria esse mundo de dados. Criei esse e comecei a atuar na área ainda de forma muito leve. Fiz cursos, comecei a ganhar corpo via networking com as pessoas da área, que ainda eram poucas.

Quando, em 2018, o GDPR de fato entrou em vigor, eu tive um insight. Comecei a criar os materiais de trabalho do meu próprio escritório e pensei: “Esse trabalho de adequação das empresas às leis de proteção de dados vai ser um mercado superaquecido – e, depois que as empresas estiverem adequadas, vai acabar” 

Já se falava de privacy by design, ou seja, os negócios já começariam tendo sido pensados dentro das leis de proteção de dados. Portanto, eu não podia pautar meu negócio, minha atuação nisso. Precisava encontrar algo maior, que me levasse para um outro caminho. 

Aí tive a ideia de procurar no Brasil algum mestrado sobre IA. Por tudo que li na época, como era uma tecnologia baseada em dados, eu achava que era algo maior do que o trabalho de proteção de dados.

Achei um mestrado na faculdade de exatas da PUC-SP, o programa chamado TIDD – tecnologias da inteligência e design digital. Eles tinham acabado de lançar uma linha de pesquisa que tinha IA; resolvi fazer um projeto sobre IA aplicada ao direito. 

Na época, as pessoas perguntavam para quê eu fazia o mestrado, porque não havia aplicabilidade muito prática. As Big Techs estão nos EUA e as empresas brasileiras que usavam IA faziam isso na parte de trás, não havia [um produto de] adoção em massa… Só que eu acreditava no poder da tecnologia 

Aquilo foi me envolvendo, eu me apaixonei e segui a linha de pesquisa de IA e Ética [ela terminou o mestrado em 2021 e foi aprovada no doutorado], analisando os desafios que essa inteligência poderia trazer para a humanidade, no futuro.

No fim das contas, foi uma decisão muito acertada. A sincronicidade da vida me ajudou, porque no momento em que surge o ChatGPT, em novembro de 2022, eu entendia sobre uma tecnologia que, em um mês, foi adotada massivamente.  

Hoje, seis meses depois, a gente já vê IA generativa como a maior tendência e hype mundiais. Ela é, ao mesmo tempo, potencialmente maravilhosa e amedrontadora 

As cúpulas das maiores economias do mundo estão se reunindo constantemente para discutir sobre essa tecnologia, com a União Europeia – UE sempre à frente. Desde 2021, a UE estuda o projeto AI Act para ser o marco regulatório da inteligência artificial na Europa, e eu acompanho. 

Com essa adoção em massa do ChatGPT, passei a me dedicar muito e adotei uma postura de educadora, porque acho que não adianta a gente só aprender como usar. 

A pessoa vai fazer curso de prompts para aprender como fazer a melhor pergunta; ou vai fazer curso sobre as 20 melhores aplicações disponíveis hoje para aumentar a produtividade — mas ela não sabe o que é IA, nem o que é IA generativa, e não avalia os impactos que isso pode causar nas próximas gerações.

Tenho um filho de 16 anos e isso me motivou a conversar com esse público – jovens, mães, pais e escolas – para educar nesse lugar. A gente vê o hype em torno do ChatGPT, mas esse formato ou tipo de inteligência artificial é só o começo. Há vários tipos.

O que há de tão disruptivo e amedrontador na inteligência artificial generativa?
A IA generativa realmente causa um impacto muito grande na sociedade porque a máquina domina algo muito poderoso que é a linguagem.

Para o ser humano, a linguagem é a base das conexões: é o que me permite conversar com você, é o que faz a gente criar amigos, é o que viabilizou a criação das religiões – a partir dos textos sagrados escritos –, dos códigos, das leis e regras

Se você domina a linguagem, talvez domine o ponto mais valioso da humanidade, o que nos permite viver em sociedade. 

Por isso que existe toda essa preocupação por trás do ChatGPT. É por isso que tantos nomes do mercado como Elon Musk assinaram aquela carta aberta [publicada pelo Future of Life Institute] pedindo para dar uma pausa de seis meses no desenvolvimento da tecnologia – cada um com suas motivações.

Elon Musk é um dos caras mais geniais do mundo e quer fazer o negócio dele [segundo o Venture Beat, a empresa já está sendo montada e se chamará X.AI], por isso pede pro outro lado dar uma pausa. Pra ele sair na frente!

Mas tem um lado também de humanidade, de falar assim: “Calma, antes de a gente sair nessa corrida desenfreada, é preciso regulamentar. É preciso alguma lei”.

Há dois anos, quando terminei o meu mestrado, quis criar um grupo para disseminar, ampliar e compartilhar o conhecimento que eu tenho sobre IA que, na minha opinião, é a tecnologia mais poderosa pra humanidade. Assim nasceu o MulherIA

Porém, como a gente ainda não estava no momento de adoção em massa, não houve tanto interesse das pessoas fomentarem as discussões. 

A ideia era fazer pesquisa, artigos, conversar sobre o assunto, porque o impacto não era iminente. Não era uma coisa que se você não estudasse ficaria para trás, ou perderia seu emprego. Hoje é!

Pode aprofundar por que você acha que a IA generativa é a tecnologia mais potente que existe hoje?
Pra mim tem a ver com o domínio da linguagem e do fato de a própria empresa que criou o ChatGPT, a OpenAI, disponibilizar a API do sistema pra você criar coisas em cima dele.

A tecnologia traz muitos benefícios, porque pode ampliar muito a capacidade do ser humano produzir mais conteúdo, ganhar tempo, aumentar a produtividade. 

Por outro lado, ela tem um poder destrutivo e ruim muito, muito grande. Se uma tecnologia domina a linguagem, ela também pode disseminar e gerar maior desinformação, alterar a nossa percepção da realidade. 

Como será que as próximas gerações, ou até a de nossos filhos, vão filtrar o que é real e o que não é? Se a gente pensar na evolução dos sistemas como acontece hoje, com essa quantidade de fake news, eu vislumbro um mundo muito nebuloso 

Por isso, aquela pausa – embora utópica – poderia ser necessária para a gente regulamentar. As empresas também têm de ter obrigações, algum mecanismo de verificação, uma checagem dupla.

Por exemplo, é importante que veículos de comunicação sérios tenham políticas internas de ética – os jornalistas vão ter que verificar as fontes em mais de um lugar, talvez tenha de haver verificação humana e até presencial. 

A possibilidade de se disseminar desinformação é muito séria, mas essa alteração da percepção da realidade é, pra mim, o mais cruel, porque a gente não vai mais saber distinguir o que é criado por humano e o que é criado por robô.

Isso acontecerá se seguirmos como estamos hoje nessa evolução rápida e sem direcionamento da tecnologia. O mundo pode vir a ficar muito ruim… é por isso que eu gosto de estar no ambiente da educação também.

Podemos abordar as propostas de ajuste que estão na mesa? Mesmo que a PL das Fake News não seja sua especialidade, quando você fala que a IA generativa pode criar textos, imagens e sons que não são do mundo real – como alertou Ronaldo Lemos em seu artigo na Folha de S.Paulo, “Nossos clones digitais estão chegando”, sobre potenciais problemas de autenticação biométrica –, isso acaba resvalando numa parte do Projeto de Lei 2630/2020. Na sua visão, os debates estão corretos? O que deveríamos realmente estar discutindo sobre IA?
O poder de disseminação de fake news com uso de IA é exponencial… se potencializa muito. Se ontem a gente gerava uma quantidade de conteúdo X, hoje, já tem capacidade de gerar 100X de conteúdos. E, muito em breve, teremos 1.000.000X de conteúdo despejado na internet. 

É uma quantidade absurda. Até escrevi um artigo no meu LinkedIn falando do tsunami de conteúdo.

Estive na palestra de Greg Brockman – cofundador da OpenAI – no SXSW e ele falou claramente que acredita que a eleição de 2024 nos EUA será a última eleição presidencial ainda com o suporte de humanos, porque a IA vai dominar

Isso porque sistemas de IA, por serem modelos matemáticos probabilísticos, são muito bons em identificar padrões. Como, por exemplo, a Netflix que te entrega os conteúdos do que você vai gostar mais e tem uma enorme chance de ver. O que te dá até a sensação de loop – se você quiser algo diferente, não consegue achar.

O sistema é calibrado, ajustado e aprende o que faz sentido para aquele tipo de pessoa. Ele fica tão “perfeito” para aquele receptor que vai acontecer uma polarização cada vez maior – como a gente já vê na política americana com republicanos e democratas, e no Brasil com esquerda e direita. 

Então, uma pessoa que tinha uma tendência de centro-direita começa a receber conteúdos produzidos por IA, ou mesmo por humanos, em que o sistema faz o ajuste e entrega um resultado tão acertado que é como se ele soubesse exatamente o que você quer – a margem de erro é muito pequena. 

Quando você tem um acerto muito grande de um lado e de outro, a guerra fica mais acirrada. Você vai [poder] usar aplicações nas quais diz: “Quero um conteúdo de extrema-direita que fale isso, isso e isso”. Em um clique, vai gerar milhares de flyers, propagandas, postagens e anúncios para Instagram, Facebook, LinkedIn 

Essa falta de humanidade que usa o poder dessa tecnologia para entender como o ser humano pensa é uma certa manipulação – isso ficará cada vez mais evidente – e um grande risco.

Os projetos de lei que envolvem esse tipo de sistema estão também de olho nisso, porque qualquer tecnologia que possa vir a ter um impacto negativo muito grande no ser humano – no emprego, na saúde mental – serão regulados.

A PL das Fake News foca um pouco mais na questão da responsabilização dos provedores de conteúdo, se eles têm de excluir do ar alguma postagem que aborde determinado assunto [considerado crime, como por exemplo ameaça ao estado democrático de direito ou violência sexual contra crianças], o que se mistura um pouco com a questão de censura e é um ajuste em relação ao Marco Civil da Internet, que trouxe a liberdade de expressão como algo muito importante. 

É como se, por um momentinho, o Marco Civil da Internet tivesse colocado a liberdade de expressão um pouco acima de outros direitos. Aí, a pessoa que se sente lesada por conta desse direito tem de ir na justiça para o juiz notificar a empresa, caso considere aquele conteúdo prejudicial

Antes do Marco Civil da Internet, a depender do tipo de conteúdo, você podia notificar a empresa que aquele conteúdo era prejudicial e a empresa o tirava do ar. Agora, está havendo esse movimento contrário para que alguns tipos de conteúdos sejam retirados com a notificação, e não esperando um juiz, e também trazendo responsabilidades a esses provedores de internet.

Essa ideia de combate à disseminação de fake news vem também no Projeto de Lei 2338/23 [apresentado pelo senador Rodrigo Pacheco, do PSD-MG, no dia 3 de maio, seria uma espécie de marco legal da IA, responsabilizando empresas que desenvolvem e aplicam a tecnologia, enquanto protege as pessoas dos possíveis riscos] que trata do uso da inteligência artificial. 

Ele também quer proteger direitos de pessoas afetadas por notícias falsas ou por informações e respostas geradas por sistemas de IA ou por ferramentas que usam sistemas de IA; empresas que desenvolvem, usam ou vendem a aplicação desse produto terão de cumprir determinadas regras. 

Na minha opinião, tanto para o PL das Fake News quanto para esse outro PL 2338/23 falta incluir pessoas que possam ensinar a parte técnica. 

Não adianta uma comissão de juristas e juízes se juntar para conversar sobre o tema só sob a ótica do direito – do que pode e o que não pode; do que é bom e o que não é; o que vai proteger o nosso direito humano ou não… Porque falta a eles informações técnicas 

Vou dar um exemplo bem prático: essas leis exigem transparência dos sistemas e explicabilidade do porquê uma informação foi gerada: por quê se chegou a determinado resultado. E a maioria dos sistemas que existem hoje – é claro que estamos num processo evolutivo muito rápido – não são explicáveis. 

A depender da densidade desse sistema de IA – do quão profundo ele é, da quantidade de dados e do poder computacional envolvidos –, nem quem o está desenvolvendo é capaz de dizer, de explicar pra ponta final [o usuário] por que o sistema chegou naquele resultado. Imagine que, em IA, falamos em milhões de parâmetros. 

Por exemplo, empresas que fazem RH, seleção e contratação de candidatos online usam sistemas de IA. A pessoa responde as perguntas e nunca sabe por que, ao final, não conseguiu a vaga. Não foi um humano que não gostou de você. Foram os parâmetros imputados no sistema. E o sistema – por algum motivo que você não sabe qual – gerou aquele resultado

Isso é um grande desafio, porque essas leis querem que as empresas se responsabilizem e expliquem como se chegou no resultado. Porém, tecnicamente, em determinadas situações, não é possível. 

A regulação tem de ser sobre a forma que esses sistemas estão sendo desenvolvidos?
Também sobre a forma, mas é preciso haver uma educação [das comissões] em relação ao que é possível extrair desses sistemas. Não adianta você proibir uma coisa ou exigir em lei uma determinada coisa. 

É muito difícil regulamentar a tecnologia, porque o legislador quer proteger direitos garantidos, mas ele não entende sobre a técnica. E o técnico não entende sobre o direito. 

Deveria, então, haver uma educação em mão dupla, para os desenvolvedores também?
A limitação da tecnologia não é culpa do desenvolvedor. A tecnologia é assim. 

Ou a sociedade vai proibir essa tecnologia; ou a gente vai ter de caminhar juntamente com ela, definindo regras e algumas outras proteções – se realmente houver um direito muito impactado – para os juízes, por exemplo, indenizarem. Mas há limitações tecnológicas que não adianta a gente querer – como cidadão ou jurista – exigir. 

Repare: a beleza do Chat GPT é que o resultado dele não foi nada do que havia sido imaginado pelos desenvolvedores. A OpenAI começou treinando um sistema de IA com uma quantidade enorme de dados – avaliações e comentários dos clientes da Amazon

O objetivo da OpenAI era que o sistema identificasse, dentro de determinada frase, qual era a próxima palavra que ele deveria entregar de acordo com o contexto. Esse tipo de sistema de IA analisa contexto. 

Foi com uma enorme quantidade de dados, um poder computacional muito grande e por conta de algumas calibragens, que se chegou ali. Não foi o desenvolvedor sozinho que criou aquela máquina. Eles foram mexendo nos parâmetros matemáticos e de repente surgiu aquilo. 

A matemática por trás da IA é tão poderosa que nenhum ser humano consegue explicar. Por isso é que dá medo. Por isso que quando se fala de aumento de poder computacional e de computadores quânticos – que são o futuro – temos medo, porque não sabemos o que aquele computador é capaz de entregar 

(Nota: em um artigo para a revista Wired em dezembro de 2022, Gary Marcus, professor emérito da NYU e uma das principais vozes no debate sobre a IA, compilou “sete previsões sombrias” sobre sistemas como o ChatGPT, entre elas o alerta de que esse tipo de plataforma “alucina” – termo da IA que designa uma resposta fora do que seria esperado pelos programadores.)

A gente não consegue explicar, com as informações que temos hoje, como um sistema de IA chega nesse ponto. Qual é a solução pra isso? Regulamentar os efeitos; o que pode e o que não pode. Algo assim: se acontecer esse tipo de situação, você vai ter que dar a solução X.

Por exemplo, em março, a Itália proibiu o uso do ChatGPT [a OpenAI teve de tirar a plataforma do ar após a autoridade de proteção de dados italiana proibir temporariamente o chatbot e iniciar uma investigação sobre suposta violação das regras locais de privacidade pela plataforma] por conta da GDPR.

O que a OpenAI fez? Por conta dessa proibição da Itália – que pediu: “Vocês precisam dizer quais foram os dados usados pra fazer o treinamento do sistema”, além de várias outras questões – o próprio ChatGPT fez os ajustes nos parâmetros. Agora, já está mais perto de poder ser liberado no país [o acesso ao chatbot foi restabelecido, porém a investigação continua]. 

A empresa não quer que o Chat GPT seja proibido na Europa. Quer estar compatível com as leis. Só que no primeiro momento ela lança a tecnologia como é possível, porque é uma inovação – e a inovação vem sempre antes da regulação! 

Isso é muito importante: a inovação, a invenção é o poder criativo do ser humano. A IA não inventa. Ela pode fazer associações que o ser humano não é capaz de fazer – por exemplo, diagnósticos médicos, identificar coisas que o ser humano não é capaz de ver –, mas o sistema faz correlações entre dados do passado. Ele não enxerga o futuro, não cria coisas novas 

Então, a regulamentação vem sempre depois e o legislador tem de trabalhar com uma equipe técnica, com os juristas e várias parcelas da sociedade para tentar limitar, garantir direitos sem estancar a evolução da própria tecnologia… senão a tecnologia não avança.

Seria saudável já prever nessas regulações que houvesse revisões periódicas sobre o que foi decidido, uma vez que a tecnologia evolui?
Em tese, sim. Só que cada país tem a sua forma de regulamentar, tem o seu processo legislativo, inclusive existem modelos jurídicos diferentes. 

O Brasil adota o modelo de Civil Law ou direito civil [baseia-se nas normas escritas para fundamentar decisões e resolver casos judiciais], do direito baseado numa quantidade muito grande de leis. A nossa inspiração é o direito romano, que é extremamente codificado. Temos um processo legislativo com uma quantidade imensa de pessoas – deputados, senadores. 

Os EUA são baseados no Common Law ou direito comum [utiliza os casos julgados anteriores para embasar as decisões judiciais], cuja origem é o direito anglo-saxônico, baseado em poucas leis escritas. 

Se você parar pra pensar, no processo legislativo brasileiro é tudo muito moroso e a tecnologia avança rapidamente. Mesmo que se coloque uma pauta de urgência, é um processo tão burocrático que há buracos

É preciso haver mais conversas com técnicos. Quem está legislando precisa entender. Estamos em um momento muito complexo de união entre tecnologia e direito, porque é preciso regular assuntos que não são compreendidos por aqueles que regulam. 

Esse projeto de lei de IA é um projeto substitutivo do outro porque coisas novas surgiram. O AI Act na União Europeia não previa nada específico sobre inteligência artificial generativa. A tecnologia evolui antes mesmo de virar lei. Hoje, acontece de um projeto já ficar obsoleto, antes de virar lei. 

É por isso que o tema Ética é tão importante. Acho que a gente não deve deixar apenas na mão dos governos e dos reguladores a definição dos parâmetros éticos 

Essa pauta sobre a ética precisa estar, por exemplo, no seu veículo de comunicação; na escola dos nossos filhos; dentro das empresas. A gente também pode se autorregular. Seria aquela regulação dentro do que a empresa, pessoa, instituição ou entidade entende que são os princípios e cria regras pautada nesses princípios.

É claro que terá coisas em que você estará sujeito(a) ao funcionamento da tecnologia. E se houver impacto a um direito, vai buscar uma prestação jurisdicional, quer dizer, vai buscar uma assistência na justiça. Porque não dá pra regular tudo! 

Acho que é um problema se pensar em regulamentar as tecnologias com muito detalhe, porque elas rapidamente mudam, é que nem o vírus – por princípio é mutante.

Nesse sentido, ter uma autarquia que faça a avaliação é algo positivo?
Sim, inclusive esse projeto de lei novo que dispõe sobre o uso da IA sugere a criação de uma autoridade, assim como foi criada a Autoridade Nacional de Proteção de Dados (ANPD). 

Isso é interessante porque passa a ser um órgão formado por pessoas que também entendem a técnica, porque você não pode exigir que todos os deputados e senadores com idades e formações variadas parem as suas vidas para fazer o que eu tenho feito hoje – estudar IA todos os dias 

Cada uma dessas pessoas têm as suas prioridades. Quando você cria um órgão específico, ele tem propriedade de fala, passa a trabalhar com equipes técnicas que darão suporte – e acho isso muito eficiente. 

E além disso, acredito que a pauta ética também deve fazer parte do dia a dia das empresas. Por exemplo, o seu veículo de comunicação poderia criar políticas de uso desses sistemas de IA: o que é aceito e o que não é; se um repórter usar um desses sistema, teria avisar que o utilizou – e isso não quer dizer que a pessoa não fez ou não trabalhou, mas sim que a pessoa está antenada e que veículo tem uma política pró uso de novas tecnologias. 

Existem veículos de comunicação internacionais que já definiram que não farão uso de ChatGPT ou outros sistemas. Se houver transparência por parte de quem usa e possibilidade de dizer e explicar o porquê usou, acho que é um grande avanço, assim a gente caminha junto

A IA generativa abalou as estruturas da sociedade como ela existe hoje… e do planeta. Se a sociedade tiver educação sobre essa tecnologia, terá mais conhecimento, propriedade de fala, e menos medo. Com isso, terá mais capacidade de caminhar e evoluir junto. 

Paralelamente a isso, os países, os órgãos, as próprias empresas e entidades vão regulamentando, seja com a política privada – como por exemplo uma diretriz do Draft para uso ético dos sistemas de IA [por parte dos repórteres] – ou uma lei que vai dizer o que pode e o que não pode.

Os próprios projetos de lei mundo afora são bem pouco específicos. São muito mais principiológicos e menos específicos. 

Se há uma mutação rápida na tecnologia, a lei que passou por todo o processo extremamente complexo tem de ser rasgada e jogada no lixo, porque fica obsoleta. E não é isso que a gente quer! 

Por isso que as leis mais principiológicas fazem mais sentido quando se fala de novas tecnologias.

Qual é a característica desse projeto atual de lei de IA? Tem mais princípios ou é mais específica e corre o risco de ficar obsoleta em breve?
Ele tem mais princípios e também traz algumas limitações, tenta dar responsabilidades para quem desenvolve ou aplica IA. 

Ele prevê a gradação de risco dos sistemas de IA. Sistemas com risco excessivo seriam proibidos; e sempre que um sistema gerar alto risco para as pessoas, para funcionar precisará adotar medidas de governança mais rígidas do que aqueles que geram menos riscos. 

Esse tipo de regulamentação é boa, porque se o projeto de lei já proíbe sistemas enquadrados como em risco excessivo, uma empresa não vai gastar esforços e recursos para desenvolver algo do tipo, porque não poderá ir pro mercado 

Os sistemas de IA de alto risco têm algumas características listadas e as empresas que os desenvolvem têm mais ou menos obrigações e responsabilidades. Se você incorre nesse risco, tem de cumprir tais e tais regras. 

Acho que esse é o caminho do que é possível seguir, embora eu ache que ainda tem alguns pontos que não são possíveis em termos técnicos, por exemplo, a exigência de explicabilidade. 

O projeto fala em autoridade competente no artigo 18: “caberá à autoridade competente atualizar a lista dos sistemas de inteligência artificial de risco excessivo ou de alto risco, identificando novas hipóteses com base em pelo menos um dos seguintes critérios…” Essa é uma boa forma, porque o projeto já abre para essa autoridade determinar risco – e, com isso, não precisa mais de uma lei específica.

Assim como surgiu o ChatGPT, daqui a seis meses pode surgir alguma outra coisa muito disruptiva e com alto risco para a humanidade. Esse tipo de lei deixa para a autoridade que tem um pouco mais de agilidade na hora de resolver. Não precisa passar por um processo legislativo completo para chegar a proibir.

COMPARTILHAR

Confira Também: