Contabilista – Advogado há mais de 20 anos, tem-se especializado, por assim dizer, neste novo campo, ainda pouco explorado, da IA, na sequência de muitos pedidos de esclarecimento e informação de clientes – bancos, seguradoras e da própria administração publica. Quais são os principais desafios jurídicos e legais que se colocam com esta aceleração tecnológica, nas dimensões da responsabilidade civil, privacidade, segurança e ética?
Adolfo Mesquita Nunes – Quando utilizamos IA nos nossos processos decisórios, estamos a assumir toda a responsabilidade por aquilo que esses sistemas dizem, fazem, sugerem ou recomendam. Mas as questões que quotidianamente se colocam são várias: posso usar a IA para, por exemplo, avaliar trabalhadores? A quem é que se deve atribuir ou recusar atribuir crédito bancário? Se a decisão que eu tomo for errada a responsabilidade é minha, do sistema ou da empresa que fabricou o sistema? Se houver danos reportados, a quem atribuir a responsabilidade? Como gerir o risco e como asseguro que estou sempre no controlo da decisão?
São, na verdade, muitas perguntas…
Na verdade, são apenas algumas das questões que emergiram assim que passámos a ter sistemas de IA nas nossas organizações.
A Europa tem, desde 2024, o «IA ACT», mas por esta ser ainda uma área que carece de regulação um pouco por todo o mundo, admite uma vaga de litigância, nos tempos mais próximos, com a generalização dos sistemas de IA?
Como qualquer criação humana, a IA acarreta riscos. Isso não é um problema, temos é de saber como mitigá-los ou evitar que eles aconteçam. Gosto muito de dar o exemplo dos sinais de trânsito. Esta sinalização só apareceu no dia em que se constatou que era imperioso organizar o trânsito, devido ao excesso de automóveis em circulação. É algo parecido o que se passa com a IA. Sobretudo, nos Estados Unidos, já começa a haver litigância. Há poucos dias conhecemos uma decisão judicial que condenou empresas de IA por se ter demonstrado que elas tinham, de alguma forma, manipulado uma adolescente que entendeu que ficou mais deprimida por ter usado estes sistemas. Este é apenas um exemplo de litigância, sem contar com a litigância que já corre nos tribunais devido a questões de direitos de autor, etc. Outra surgirá, certamente. É normal que assim seja. O que não quer dizer não devemos usar IA. O importante é que haja noção que temos de ter regras que nos ajudem a lidar com estes riscos.
«Algoritmocracia» é o sugestivo e inquietante título do seu livro (que considera um manifesto cívico e político) em que descreve o ambiente político novo em que a arquitetura digital molda silenciosamente o espaço público, o debate político e as nossas liberdades. Na raiz deste ecossistema digital está o objetivo dos “golias” tecnológicos capturarem a permanente atenção das pessoas para a obtenção de mais dados e terem mais lucros?
A economia digital é a economia da atenção. Isto é, as plataformas eletrónicas ganham tanto mais quanto mais tempo nós estivermos agarrados a elas. E como é que essas plataformas procuram concretizar esse objetivo? Proporcionando-nos conteúdos que elas sabem, de antemão, que vão manter a nossa atenção. Há um lado positivo: à partida, vou ser orientado para conteúdos que vou gostar: podem ser músicas, autores, etc.
E qual é o lado negativo?
Para conseguirem manter a minha atenção, o maior número de tempo possível, os algoritmos acabam por ter uma componente aditiva. E como em qualquer adição, ela é prejudicial. Parte do caso judicial que acabámos de falar, ocorrido nos Estados Unidos, tem a ver com conteúdo de natureza aditiva. Em resumo, o modelo de negócio das plataformas baseia-se na atenção, como é o de qualquer outro vendedor. A única diferença é que os algoritmos são desenhados e concebidos de forma profundamente sofisticada para conseguirem mesmo prender a nossa atenção.
Funcionalidades como o scroll infinito, o clickbait ou o deepfake são apenas algumas das estratégias usadas para aumentar o tempo de utilização?
Quando acabo de ler um livro sou confrontado com o mundo que está à minha volta, escolhendo outra coisa para fazer. Quando chega ao fim de um filme no cinema, abandono a sala e escolho outra coisa para fazer. No scroll infinito nunca sou confrontado com o fim. Logo, nunca preciso de arranjar alternativas para fazer. O scroll infinito é uma técnica para nos deixar “presos” mais tempo. Não havendo fim e o conteúdo que nos surge é escolhido para nos manter interessados, o mais natural é que continuemos imersos.
Os algoritmos moldam o modo como pensamos, decidimos e reagimos. Dezenas de escolhas que fazemos diariamente são, afinal, reações a estímulos preparados para estarmos mais recetivos e darmos um passo em frente. Como preservar a nossa autonomia relativamente aos algoritmos, recuperando o que define como a «liberdade cognitiva» perdida?
Para começar definamos algoritmos: no fundo, são vigilantes permanentes que tomam notas sobre tudo que nós fazemos online. Sabem o que gostamos de ver, que tipo de vídeos, durante quanto tempo, a que horas os vemos, etc. E guardam toda esta informação para, deste modo, nos proporcionar conteúdos e produtos que, de antemão, sabem que nos vão agradar. Assim, organizam as notícias e os vídeos que vemos e também as notícias e os vídeos que não vemos. E faço a seguinte pergunta: se a nossa visão do mundo depende tanto do que me aparece no telemóvel, porque é que eu, cidadão, não tenho nenhum poder de alterar a forma como os algoritmos organizam a minha informação?
O que descreve é a apresentação de uma realidade formatada, sem margem para escolha…
Posso comprar um jornal ideologicamente mais à direita ou outro jornal ideologicamente mais à esquerda. É uma opção minha. Nos algoritmos não há opção. Eles é que organizam a informação. As opções de personalização apresentadas são muito ténues. Por isso, defendo, que tendo em conta o papel que as plataformas eletrónicas têm nas nossas vidas, os cidadãos deviam ter mais poder na personalização que todos os dias é levada a cabo pelos algoritmos e que nos aparece nos ecrãs dos telemóveis.
E isso consegue-se com uma regulação mais inteligente?
Consegue-se com regulação e com regras. A liberdade individual deve prevalecer e, por sua vez, o negócio terá de se adaptar a um desejável clamor da sociedade. Da mesma forma que exigimos a um banco informação detalhada sobre os produtos financeiros que pretendemos comprar ou um produto alimentar contendo a descrição dos ingredientes que integram a respetiva tabela nutritiva. Ao nível dos algoritmos as regras terão de ser criadas para garantir que cada um de nós tem mais informação sobre estas ferramentas e a forma como elas interagem connosco.