Entrevista
Entrevista a Adolfo Mesquita Nunes, advogado
6 Maio 2026
AdolfoMesquita1
«Se continuarmos a delegar o conhecimento em sistemas de IA deixaremos de precisar de pensar»


A «algoritmocracia» é um fenómeno crescente que domina as democracias modernas e determina o que lemos e vemos nas redes sociais e plataformas digitais, condicionado a opinião pública. A tese é defendida por Adolfo Mesquita Nunes que identifica as vantagens da Inteligência Artificial (IA), mas alerta para a necessidade de definir regras e regulamentação. O advogado, precursor em Portugal na análise dos desafios, riscos e dilemas legais que a IA levanta, acredita que a contabilidade será «uma das áreas profundamente transformada», em consequência da integração destes sistemas tecnologicamente sofisticados.
 

Contabilista – Advogado há mais de 20 anos, tem-se especializado, por assim dizer, neste novo campo, ainda pouco explorado, da IA, na sequência de muitos pedidos de esclarecimento e informação de clientes – bancos, seguradoras e da própria administração publica. Quais são os principais desafios jurídicos e legais que se colocam com esta aceleração tecnológica, nas dimensões da responsabilidade civil, privacidade, segurança e ética?

Adolfo Mesquita Nunes – Quando utilizamos IA nos nossos processos decisórios, estamos a assumir toda a responsabilidade por aquilo que esses sistemas dizem, fazem, sugerem ou recomendam.  Mas as questões que quotidianamente se colocam são várias: posso usar a IA para, por exemplo, avaliar trabalhadores? A quem é que se deve atribuir ou recusar atribuir crédito bancário? Se a decisão que eu tomo for errada a responsabilidade é minha, do sistema ou da empresa que fabricou o sistema? Se houver danos reportados, a quem atribuir a responsabilidade? Como gerir o risco e como asseguro que estou sempre no controlo da decisão?

São, na verdade, muitas perguntas…

Na verdade, são apenas algumas das questões que emergiram assim que passámos a ter sistemas de IA nas nossas organizações.

A Europa tem, desde 2024, o «IA ACT», mas por esta ser ainda uma área que carece de regulação um pouco por todo o mundo, admite uma vaga de litigância, nos tempos mais próximos, com a generalização dos sistemas de IA?

Como qualquer criação humana, a IA acarreta riscos. Isso não é um problema, temos é de saber como mitigá-los ou evitar que eles aconteçam. Gosto muito de dar o exemplo dos sinais de trânsito. Esta sinalização só apareceu no dia em que se constatou que era imperioso organizar o trânsito, devido ao excesso de automóveis em circulação. É algo parecido o que se passa com a IA. Sobretudo, nos Estados Unidos, já começa a haver litigância. Há poucos dias conhecemos uma decisão judicial que condenou empresas de IA por se ter demonstrado que elas tinham, de alguma forma, manipulado uma adolescente que entendeu que ficou mais deprimida por ter usado estes sistemas. Este é apenas um exemplo de litigância, sem contar com a litigância que já corre nos tribunais devido a questões de direitos de autor, etc. Outra surgirá, certamente. É normal que assim seja. O que não quer dizer não devemos usar IA. O importante é que haja noção que temos de ter regras que nos ajudem a lidar com estes riscos.

«Algoritmocracia» é o sugestivo e inquietante título do seu livro (que considera um manifesto cívico e político) em que descreve o ambiente político novo em que a arquitetura digital molda silenciosamente o espaço público, o debate político e as nossas liberdades. Na raiz deste ecossistema digital está o objetivo dos “golias” tecnológicos capturarem a permanente atenção das pessoas para a obtenção de mais dados e terem mais lucros?

A economia digital é a economia da atenção. Isto é, as plataformas eletrónicas ganham tanto mais quanto mais tempo nós estivermos agarrados a elas. E como é que essas plataformas procuram concretizar esse objetivo?  Proporcionando-nos conteúdos que elas sabem, de antemão, que vão manter a nossa atenção. Há um lado positivo: à partida, vou ser orientado para conteúdos que vou gostar: podem ser músicas, autores, etc.

E qual é o lado negativo?

Para conseguirem manter a minha atenção, o maior número de tempo possível, os algoritmos acabam por ter uma componente aditiva. E como em qualquer adição, ela é prejudicial. Parte do caso judicial que acabámos de falar, ocorrido nos Estados Unidos, tem a ver com conteúdo de natureza aditiva. Em resumo, o modelo de negócio das plataformas baseia-se na atenção, como é o de qualquer outro vendedor.  A única diferença é que os algoritmos são desenhados e concebidos de forma profundamente sofisticada para conseguirem mesmo prender a nossa atenção.

Funcionalidades como o scroll infinito, o clickbait ou o deepfake são apenas algumas das estratégias usadas para aumentar o tempo de utilização? 

Quando acabo de ler um livro sou confrontado com o mundo que está à minha volta, escolhendo outra coisa para fazer. Quando chega ao fim de um filme no cinema, abandono a sala e escolho outra coisa para fazer. No scroll infinito nunca sou confrontado com o fim. Logo, nunca preciso de arranjar alternativas para fazer. O scroll infinito é uma técnica para nos deixar “presos” mais tempo. Não havendo fim e o conteúdo que nos surge é escolhido para nos manter interessados, o mais natural é que continuemos imersos.

Os algoritmos moldam o modo como pensamos, decidimos e reagimos. Dezenas de escolhas que fazemos diariamente são, afinal, reações a estímulos preparados para estarmos mais recetivos e darmos um passo em frente. Como preservar a nossa autonomia relativamente aos algoritmos, recuperando o que define como a «liberdade cognitiva» perdida? 

Para começar definamos algoritmos: no fundo, são vigilantes permanentes que tomam notas sobre tudo que nós fazemos online.  Sabem o que gostamos de ver, que tipo de vídeos, durante quanto tempo, a que horas os vemos, etc. E guardam toda esta informação para, deste modo, nos proporcionar conteúdos e produtos que, de antemão, sabem que nos vão agradar. Assim, organizam as notícias e os vídeos que vemos e também as notícias e os vídeos que não vemos. E faço a seguinte pergunta: se a nossa visão do mundo depende tanto do que me aparece no telemóvel, porque é que eu, cidadão, não tenho nenhum poder de alterar a forma como os algoritmos organizam a minha informação?

O que descreve é a apresentação de uma realidade formatada, sem margem para escolha…

Posso comprar um jornal ideologicamente mais à direita ou outro jornal ideologicamente mais à esquerda. É uma opção minha. Nos algoritmos não há opção. Eles é que organizam a informação. As opções de personalização apresentadas são muito ténues. Por isso, defendo, que tendo em conta o papel que as plataformas eletrónicas têm nas nossas vidas, os cidadãos deviam ter mais poder na personalização que todos os dias é levada a cabo pelos algoritmos e que nos aparece nos ecrãs dos telemóveis.

E isso consegue-se com uma regulação mais inteligente?

Consegue-se com regulação e com regras. A liberdade individual deve prevalecer e, por sua vez, o negócio terá de se adaptar a um desejável clamor da sociedade. Da mesma forma que exigimos a um banco informação detalhada sobre os produtos financeiros que pretendemos comprar ou um produto alimentar contendo a descrição dos ingredientes que integram  a respetiva tabela nutritiva. Ao nível dos algoritmos as regras terão de ser criadas para garantir que cada um de nós tem mais informação sobre estas ferramentas e a forma como elas interagem connosco.
 


Este universo algorítmico é caraterizado por proporcionar a existência de uma indústria de manipulação de realidades, disseminação de meias-verdades, pós-verdades e factos alternativos. Escreve no seu livro que «os populistas não ganham por causa dos algoritmos. Mas não ganham sem eles». Em que medida é que a forma como os algoritmos estão arquitetados contribui para ameaçar as democracias liberais e abrir caminho para a proliferação dos populismos?

O populismo é entendido aqui como uma linguagem ou método político que separa o mundo entre os bons e os maus, uma visão binária da política, que assenta numa linguagem simples sobre problemas complexos. Ao nível dos algoritmos encontra-se hoje documentado que a nossa natureza fica muito mais presa a conteúdo que nos indigna, que nos causa medo, que nos causa ressentimento, que seja insólito e que nos interpela no que há de mais profundo em nós.
Entre uma notícia que diz «Estudo mostra que vacinas podem ter efeitos adversos em 0,05 por cento dos casos» e outra onde se lê «Estudo mostra que vacinas causam cancro», nós tendemos a clicar nesta segunda. Por isso, este conteúdo mais polémico e que nos causa mais temor é o que os algoritmos vão privilegiar, simplesmente porque sabem que é nele que vamos clicar. Será, por isso, garantido que iremos passar a ser confrontados, nas redes sociais, com diversos estudos que associam as vacinas a efeitos cancerígenos, o que necessariamente causará dúvidas e levantará questões, que até há pouco tempo, provavelmente não se colocavam. O facto de os populistas viverem muito de inimigos externos e de teorias da conspiração, faz com que estes conteúdos tenham uma grande capacidade para se tornar virais, beneficiando quem advoga receitas simples para problemas complexos, como é o caso dos populistas.

O recurso da IA sem mediação humana pode constituir um perigo real? 

O humano erra tantas ou mais vezes que a máquina, mas o humano é um agente que pode ser responsabilizado e julgado. O que se passa quando os sistemas decidem sem intervenção humana, é que nós perdemos esta capacidade, mas não nos podemos eximir de responder a algumas perguntas: quem é responsável? Quem desenhou? Quem fez?  Caso contrário, passaremos a viver num mundo sem responsabilidade, algo que a nossa sociedade não pode consentir. Em suma, a supervisão humana sobre a IA é essencial para garantir que há sempre capacidade para responsabilizar e evitar os riscos através de um juízo humano. Por outro lado, os sistemas de IA tendem, como é natural, para a eficiência, o que vai fazer com que adotem decisões que vão nesse sentido. Contudo, na vida humana, a eficiência não é o único critério para a tomada de decisões, emergindo valores como a empatia, o amor, a caridade, a equidade, etc. Por isso, se deixarmos que sejam os sistemas de IA – baseados única e exclusivamente na eficiência – a tomarem as decisões, perderemos esta dimensão transgeracional e solidária em que a sociedade onde vivemos se baseia. É perigoso se viermos a perder essa componente.

Yuval Noah Harari e Éric Sadin são dois filósofos que alertam para os efeitos perniciosos da generalização da IA nas sociedades, ao nível da inteligência humana, criatividade e conformismo, apenas para dar alguns exemplos. Que crédito atribui a estas teses catastrofistas?

Os filósofos que mencionou estão a observar a facilidade com que nós, seres humanos, delegamos em sistemas de IA decisões sobre as nossas vidas. É uma realidade que importa não ignorar: Pedimos que nos escrevam cartas de amor, que nos ajudem a tomar decisões fundamentais para as nossas vidas, a avaliação das nossas análises clínicas, etc. Delegando cada vez mais coisas na IA vamos perder capacidades, o que não significa que não ganhemos outras. No fundo, vamos deixar de ser donos das nossas próprias decisões, tornando-nos mais dependentes, vulneráveis e mais amorfos. Se fizermos um juízo sensato, verificamos que isso já está a acontecer.

Sabendo-se que nenhuma tecnologia é neutra, o recurso ao ChatGPT está lentamente a generalizar-se. Que riscos existem se depositarmos uma confiança acrítica nesta e noutras ferramentas semelhantes?

O maior risco face a estas tecnologias é achar que elas são um oráculo, quando, na verdade, não o são. Um modelo de linguagem natural não tem nenhum tipo de conhecimento. Tem acesso a muitos dados e a muita informação e vai fornecendo respostas que são plausíveis, mas não necessariamente verdadeiras. É a substituição do método científico como forma de obter conclusões, por uma espécie de oráculo que nos dá respostas, sem nos mostrar o seu raciocínio. E não podemos abdicar do método científico que considero uma extraordinária criação da humanidade, porque nos permite dialogar, debater e identificar erros.  Se continuarmos a delegar o conhecimento em sistemas de IA deixaremos de precisar de pensar. Não creio que o típico e clássico exemplo da máquina de calcular seja comparável com a IA.

Quer concretizar de forma mais detalhada a sua ideia?

É-nos dito muitas vezes que deixámos de precisar de fazer contas porque utilizamos uma máquina de calcular. Mas o exemplo não pode ser idêntico para a IA e o ato de pensar. Explico: 2 + 2 serão sempre 4, qualquer que seja a máquina de calcular que utilizemos. Esses cálculos são determinísticos e estarão sempre corretos. Não é propriamente o mesmo se fizermos perguntas ao ChatGPT ou a outros modelos de linguagem natural sobre a vida, a humanidade, a filosofia ou a história. Uma mesma pergunta vai ter sempre respostas diferentes. 


Do ponto de vista da fiscalidade, criar impostos especiais sobre grandes empresas tecnológicas revertendo para indústrias criativas, por exemplo, seria um rumo a seguir? Concorda com os que diabolizam a IA do ponto de vista fiscal?

Não. De forma clara, não sou favorável à criação de novos impostos neste domínio e muito menos sem a substituição dos existentes. Coisa distinta é olharmos para a nossa arquitetura e modelo de fiscalidade e percebermos que ela foi construída com uma lógica de realidade particular: estabelecimentos físicos, com lucros, obtidos nos sítios onde as pessoas se encontram.  Hoje em dia, verificamos que a realidade é muito distinta: é possível que existam situações em que a empresa recebe determinada receita gerada em situações onde nem sequer está. Perante isto, é preciso avaliar se teremos que mudar a lógica do modelo de fiscalidade de modo a que possa acompanhar a realidade económica. Contudo, pegar nos impostos que temos na realidade física e aplicá-los às empresas digitais não é um bom caminho, para além de ser uma barreira à inovação.

Dinheiro, infraestrutura e escassez de talento são ingredientes que escasseiam na esmagadora maioria das PME, representando 99 por cento do nosso tecido empresarial. Com um contexto adverso para a adoção de tecnologias de ponta e com parcos meios para ajustar procedimentos e alterar mentalidades, muitas poderão ficar pelo caminho?

É uma forma de ver as coisas, mas não tenho essa visão pessimista. Uma empresa pequena tem mais facilidade em aderir à IA de forma transformadora do que uma empresa mastodôntica, que tem milhões de procedimentos e que precisa de ter milhões de mudanças e decisões para conseguir transformar-se em pleno. Por isso, acredito que a IA é uma oportunidade para as PME, até para ganharem escala e produtividade.  Coisa diferente é perceber que há determinado tipo de serviços que são mais impactados pela IA, naquilo que ela traz de substituição do agente humano. Não se trata aqui de dizer que a IA vai substituir todas as pessoas, mas não haja dúvidas que vai substituir muitas tarefas e vai diminuir o valor de muitas outras, até porque o sistema vai ser tão bom ou melhor do que os humanos. Precisamente por haver áreas mais expostas, é importante que as PME entendam quando se lançam num negócio ou se propõem prestar determinado tipo de serviços se estes vão ser rapidamente substituídos ou ultrapassados pelos sistemas de IA.

Uma economia de pequena dimensão, exposta e com um tecido empresarial atomizado constitui um handicap para a implementação da IA?

Isso é uma realidade, mas não tem unicamente a ver com a IA. Trata-se de um problema antigo da economia portuguesa que a revolução digital e a IA vêm evidenciar de forma mais clara. É verdade que o número de nano empresas é muito grande, muito devido ao facto de termos muitos estabelecimentos comerciais com um número residual de trabalhadores. Mas não há dúvida que empresas maiores pagam melhores salários, têm mais diversidade e estão mais capazes do ponto de vista financeiro de promover inovação e desenvolvimento.

Os impactos da IA no mercado de trabalho estão longe de ser lineares. Ao nível dos contabilistas certificados, em que muitos já operaram a transição do Excel para algoritmos de análise avançada, automação e IA, está em causa a redefinição do papel destes profissionais nas organizações?

A partir do momento em que sistemas de IA fazem boa parte das nossas tarefas claro que há uma redefinição. Por um lado, se nos libertam de determinado tipo de funções, se nos obrigam a reforçar a componente humana e relacional, e eventualmente, levam-nos a descobrir outras formas de dar valor à empresa. Por isso, a contabilidade será, certamente, uma das áreas que será profundamente transformada, em consequência dos sistemas de IA. E querer ou não querer aderir à IA para preservar postos de trabalho é uma falsa opção. As empresas de contabilidade que aderirem à IA conseguirão prestar um trabalho mais rápido e ter uma maior produtividade. O que pode emergir são questões igualmente determinantes para os empresários. Por exemplo, como é que eu lidero este processo, requalifico os colaboradores e como crio mais valor?

Em suma, estamos perante uma transformação estrutural nesta área?

Sem dúvida. E acho que se tivermos sistemas de IA com supervisão humana com a garantia que estão a responder às necessidades dos meus clientes, e consigo ter esse controle, então as oportunidades vão superar largamente os riscos. O primeiro caminho para evitar riscos é saber que eles existem. Neste aspeto, admito que muitas empresas desconhecem os riscos. Por exemplo, sistemas de IA desprovidos de um conjunto de caraterísticas, por não terem sido bem desenhados e idealizados, podem ser profundamente discriminatórios para as mulheres, nomeadamente ao nível da avaliação das colaboradoras.  Esse é um dos riscos mais conhecidos da IA para quem estuda e lê.

É membro do conselho consultivo para a Digitalização na Administração Pública (CDAP). A digitalização do Estado deve ser aproveitada para a sua desburocratização ou deve haver cautela para que não seja entendida como a panaceia para todos os males?

Não tenho quaisquer dúvidas que a IA é um instrumento essencial para a reforma do Estado, porque vai permitir simplificar procedimentos e processos de decisão. Mais do que qualquer reforma orgânica, de extinção de organismos, a IA vai permitir contextualizar uma importante reforma do Estado. Mas uma coisa é utilizarmos a IA na desburocratização dos procedimentos decisórios, mantendo a supervisão humana e a capacidade humana decisória plena, questão diferente é – entusiasmados com isso – utilizarmos sistemas que na prática decidem. E é aí que devemos ficar preocupados: não podemos ter um Estado a decidir coisas sobre as nossas vidas sem conseguir explicar porque é que decidiu deste modo, como foi concebido o algoritmo que está no sistema, em suma, sem fundamentar os seus atos. Por isso, é fundamental que quando a administração pública adere à IA tenha a noção de que há um conjunto de regras a ser cumpridas quando se praticam determinados atos administrativos.

O governo aprovou em janeiro a Agenda Nacional de IA, tendo a Carteira Digital da Empresa sido a primeira iniciativa a ser apresentada.  Esta estratégia no âmbito da economia digital pode ser o ponto de viragem da há muito reclamada reforma do Estado?

Penso que sim. Aliás, tenho ouvido com muito apreço Gonçalo Matias, ministro Adjunto e da Reforma do Estado, personalidade que tem liderado esta ideia da utilização das ferramentas digitais e da IA como instrumentos para esta mudança. Estou inteiramente de acordo com ele e desejo que tenha êxito na sua função.

PERFIL

Adolfo Mesquita Nunes nasceu a 29 de novembro de 1977, na Covilhã. Professor convidado na Nova SBE e na Nova School of Law, foi deputado à Assembleia da República, entre 2011 e 2013, eleito pelo CDS, e secretário de Estado do Turismo (2013-2015). Advogado, com mais de 20 anos de experiência, é sócio da área de Direito Público e Regulação na Pérez-Llorca, em Lisboa. É pioneiro em Portugal na análise dos desafios, riscos e dilemas legais que a IA levanta, trabalhando com dezenas de empresas na criação de políticas orientadas pelo conceito legal by design. Depois de ter escrito, em 2020, «A grande escolha - mundo global ou países fechados?», volta a editar novo livro, «Algoritmocracia - Como a IA está a transformar as nossas democracias», ambos editados pela Dom Quixote.

Entrevista de Nuno Dias da Silva | Fotos Raquel Wise - Publicada na Revista Contabilista 312