Por mais trabalhoso que pareça ser, o caminho seguro passa pela responsabilização objetiva do uso
Por Demi Getschko
22/04/2024
O desaparecimento de um humor ácido, inteligente e absurdo, como o do Monty Python, é uma das perdas doridas que os tempos trouxeram. De forma paradoxal, a perda de interesse por aquele espírito brincalhão talvez represente algo exatamente oposto: uma crescente infantilização. Dois trechos impagáveis de filmes: em A Vida de Brian, elecrucificado cantando “Always Look on the Bright Side of Life”, e o feroz coelho assassino em “Em busca do Cálice Sagrado”, trazem à mente analogias com o mundo digital e a inteligência artificial (IA), seja numa visão ferradamente otimista – de que há algo positivo nos aguardando, seja pelo pessimismo – uma fera destuidora nos espreita. Ambas, é claro, com a incomparável pitada de sarcasmo dos Python.
Em momentos como hoje, quando há uma disseminação instantânea e quase osmótica de tensões, é importante primeiro diagnosticar corretamente eventuais “disfunções”, seus vetores, métodos e objetivos, para depois examinar que “remédios” são propostos, qual a eficiência esperada, quais seus custos de implementação, e quais seus possíveis efeitos colaterais…
Regular IA é tema do momento. Não ouso enfrentar a discussão sobre o conceito de “inteligência” mas, independentemente disso, há formas talvez simplórias de abordar regulação de uma nova tecnologia. Se IA for apenas uma nova “ferramenta tecnológica”, o caminho parece ser o de responsabilizar o usuário pelo danos que seu uso causar. Fica muito difícil atribuir “ética” ou “responsabilidade” a uma ferramenta: não há facas ou martelos “éticos”. Mas se essa “ferramenta” é mutante e elusiva, a responsabilidade passa a ser difusa…
Viu-se recentemente um ataque vicioso de um cão, quase causando a morte de uma pessoa. Esse cão seria essencialmente perigoso pela índole de sua própria raça, ou teria sido treinado para ser assim, mesmo que com as melhores intenções de “proteção”? E, quando o cão decidir, por si, quem deve ser atacado, que ética esperar-se-ia deste cachorro? No caso de um cão há medidas paliativas que podem ser tomadas – não deixá-lo solto, usar mordaça etc. Mas isso pode ter aplicação restrita para sistemas IA amplamente disseminados. E certamente não se usaria em humanos: o fato de termos mãos e podermos socar os outros não deveria gerar, espero, uma “lei preventiva” que obrigue todos a usarem algemas quando em área pública.
Por mais trabalhoso que pareça ser, o caminho seguro passa pela responsabilização objetiva do uso, somada à avaliação dos riscos, especialmente quando temos sistemas que aprendem, e buscam cumprir metas. O comportamento de um sistema de IA voltado a proteger algo pode não diferir muito do que o cachorro exibiu. E se nos limitarmos a buscar justificativas para o comportamento de indivíduos adultos, influenciados pelo que recebem do mundo digital, tenderemos a uma crescente tutoria. A ação que a rede permite a todos traz embutida a responsabilização pelos atos de cada um.
Ainda na Vida de Brian, na icônica discussão da Frente Popular da Judeia, busca-se elencar todos os danos que os romanos causaram, mas tropeça-se em muitos benefícios, que seria melhor ignorar… IA não é reencarnação dos romanos, mas lançar um olhar amplo e crítico é fundamental.