Inteligência Artificial no Brasil deve ser regulamentada, dizem senadores
Brasil – O presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou projeto de lei para estabelecer um marco regulatório para o uso da inteligência artificial (IA) no Brasil.
A iniciativa é resultado do trabalho de uma comissão de juristas, criada por Pacheco no ano passado e que foi presidida pelo ministro do Superior Tribunal de Justiça (STJ), Ricardo Villas Bôas Cueva. A ideia é, com o marco regulatório, consolidar em uma proposta as diversas matérias sobre esse tema no Congresso Nacional – há pelo menos quatro projetos para regular o mercado de IA em tramitação no momento.
A proposta de Pacheco contém 45 artigos, entraria em vigor um ano após se tornar lei e introduz cinco pilares estruturantes: princípios, direitos dos afetados, classificação de riscos, obrigações e requisitos de governança dos sistemas de IA, além da supervisão e responsabilização.
O texto estabelece direitos para os usuários, como a necessidade de informar previamente quando há interações com sistemas de inteligência artificial, a obrigatoriedade de que haja uma explicação sobre decisões tomadas pela IA, a possibilidade de contestar decisões, com a garantia da participação humana nessa iniciativa, entre outras prevenções.
“O projeto tem um duplo objetivo. De um lado, estabelece direitos para proteção do elo mais vulnerável em questão, a pessoa natural que já é diariamente impactada por sistemas de inteligência artificial, desde a recomendação de conteúdo e direcionamento de publicidade na Internet até a sua análise de elegibilidade para tomada de crédito e para determinadas políticas públicas. De outro lado, ao dispor de ferramentas de governança e de um arranjo institucional de fiscalização e supervisão, cria condições de previsibilidade acerca da sua interpretação e, em última análise, segurança jurídica para inovação e o desenvolvimento tecnológico”, aponta Pacheco na justificativa ao projeto.
O projeto veda, por exemplo, a utilização da inteligência para induzir pessoas a comportamentos perigosos ou prejudiciais, que explorem vulnerabilidades de grupos específicos. Também enumera quais são as aplicações da tecnologia consideradas de alto risco, que devem seguir normas mais restritas.
Créditos: Valor Econômico