BPO - Batista Pereira & Oliveira - Advogados e Associados
BPO - Batista Pereira & Oliveira - Advogados e Associados
BPO - Batista Pereira & Oliveira

Os anseios pela proteção de dados pessoais tem movido os acadêmicos ao esforço na identificação de premissas para o uso consciente de decisões automatizadas.

Em 2014 já eram ponderados que algoritmos não são isentos de subjetividade, ficção cuidadosamente construída, porquanto a seleção dos dados no processamento dos dados, é imprescindível no processo de aprendizado de máquina.

O ensino da máquina prescinde supervisão. Ou seja, é fornecer os dados à máquina e orientar como organizar os dados nas premissas estabelecidas. A preocupação ética decorre da inovação irresponsável que corrompe direitos, especialmente o direito à privacidade. A harmonia entre ética e inteligência artificial é fundamental para os limites sociais e novas tecnologias.

A harmonia entre ética e inteligência artificial é fundamental para os limites sociais e novas tecnologias. O avanço tecnológico não colide com a ética; antes revela-se fundamental para a perenidade.

Em 22 de maio deste ano, a Organização para a Cooperação e Desenvolvimento Económico (OCDE) divulgou importante documento, sugerindo limites éticos para o uso de inteligências artificiais (IA). O documento é importante porquanto é um esforço internacional sobre o uso de IA e a promoção sob os ideais democráticos e direitos humanos.

Os valores base foram definidos como: 1. sustentabilidade no desenvolvimento, crescimento inclusivo e bem-estar; 2. imparcialidade e centralidade no controle humano; 3. transparente e hábil a justificar lógicas no processo decisório; 4. robusto quanto à segurança e justiça na decisão automatizada; 5. responsabilidade e prestação de contas do controlador do dado.

Além dessas premissas, a recomendação preocupou-se em propor que as políticas nacionais ou firmadas por entes e classes privadas adotem os parâmetros ao uso de IA quanto ao investimento em pesquisa e desenvolvimento da tecnologia; fomento no ecossistema digital; construção de políticas específicas; capacitação humana, profissional para a transformação digital, e; cooperação internacional para o desenvolvimento.

No ano de 2016, publicou-se um documento listando preocupações do uso de IA. O desemprego foi listado em razão de que o aumento da tecnologia aumentará a exigência de candidatos qualificados a tarefas estratégicas, à medida que o trabalho repetitivo será escasso.
Outro ponto citado na reflexão foi a relação do ser humano com aumento do tempo livre, porquanto as máquinas trarão este recurso. No entanto, a civilização humana, por séculos vende o seu próprio tempo em troca de bem ou dinheiro que suporte o sustento próprio e o de sua família.

A transição a realidade da chamada sociedade pós-trabalho oportunizará aos cidadãos a ressignificarem as razões da própria existência, diametralmente oposto à venda do tempo. Por fim, a transição incorrerá no questionamento dos sucessores quanto às barbáries de comercializar o próprio tempo somente em troca de dinheiro e sustento.

O ponto de reflexão é que na sociedade pós-trabalho serão necessários a implantação de políticas de desenvolvimento e inovação, especialmente quando tais alterarão a estrutura econômica da sociedade atual.

Em excelente artigo científico escrito pelos autores Bruno Ricardo Bioni e Maria Luciano, admitiu-se o empréstimo do princípio da precaução, muito utilizado em questões de meio ambiente para o mundo da inovação e tecnológico.

Deste cenário surge as reflexões sobre a Lei Geral de Proteção de Dados e a revisão das decisões automatizadas proposta no artigo 20 da citada lei. A LGPD não apresentou qualquer solução prática, o que nos leva a pensar que caberá ao detentor da tecnologia demonstrar a Autoridade Nacional de Proteção de Dados (ANPD) um relatório de impacto específico sobre a situação informando as premissas lógicas utilizadas para o aprendizado da máquina e a tomada de decisão extraído do recurso através de IA.

Há um projeto de lei norte americano que projeta o tipo de relatório de impacto quando houver decisão automatizada por um algoritmo de IA, mas sem conclusões até o fechamento deste artigo. A atual formatação da Lei Geral de Proteção de Dados, embora pudesse cuidar de novas tecnologias com maior rigor, poderá constituir um vetor protetivo sobre a aplicação de IA em processos decisórios, especialmente para esclarecer ao titular do dado quais foram os parâmetros utilizados, evitando o desconforto social visto hoje em dia quanto a restrições de empresas ao uso de serviços ou aquisição de produtos sem o detalhamento das justificativas.

Estamos diante de um momento histórico, cuja preocupação é o estabelecimento de valores para que a tecnologia seja utilizada em amplitude. Mais do que isso, é reconhecer que a própria invenção humana ressignificará o papel do homem em sociedade, sem descuidar que esses titulares preservem o que por ora nos é impensável abdicarmos: os direitos humanos.
Felipe Rodriguez Alvarez é professor de Direito Civil da FIAP e Escola Superior de Advocacia (ESA-SP), CEO da Enlighten Brasil Este artigo reflete as opiniões do autor, e não do jornal Valor Econômico. O jornal não se responsabiliza e nem pode ser responsabilizado pelas informações acima ou por prejuízos de qualquer natureza em decorrência do uso dessas informações

Fonte: https://www.valor.com.br/imprimir/noticia_impresso/6337259

Compartilhe

Receba nossa Newsletter

Outras Notícias