A possível mutualização dos riscos da inteligência artificial
Subscreva o Blog
A possível mutualização dos riscos da inteligência artificial
Introdução
O livro “los riesgos generados por la inteligencia artificial y los possibles mecanismos para su mutualización” inserido nas publicações “Cuadernos de la Cátedra” da Universidade da Corunha com a fundação INADE da autoria de Gabriel Macanás Vicente a que procedemos a uma recensão, sintetiza uma investigação em torno do tema atual da inteligência artificial como fonte de riscos e como pode o setor segurador aceitar a transferência do risco mesmo garantindo uma compensação adequada a quem sofrer danos na sequência da sua utilização. A abordagem ao tema desenvolve-se em torno dos seguintes tópicos: como enfrentar os riscos produzidos pela inteligência artificial, como enquadrar os riscos associados a seguros obrigatórios como os emergentes da automação automóvel, como solucionar a incerteza financeira dos prémios em contexto de inexperiência atuarial na avaliação do risco, o desenvolvimento de personalidade jurídica dos algoritmos na perspetiva da responsabilização dos danos.
O autor é professor de Direito Civil na Universidade de Múrcia, tendo obtido o seu doutoramento no mesmo ramo de Direito pela Universidade de Bolonha. É um investigador com vários artigos publicados nos domínios do Direito Civil onde se destacam temas sobre a personalidade jurídica e a responsabilidade civil como nos contratos de serviço onde realçamos a comercialização da energia elétrica, os contratos de crowdfunding, a identificação nos contratos digitais e as bases para a personalidade jurídica de entidades não humanas.
No livro referenciado o autor reconhece que os danos causados pelas inteligências artificiais podem ser mitigados e/ou reparados perante as vítimas. Mas a melhor forma consistirá na sua mutualização, repartido os mesmos por todos aqueles que se inserem na rede de risco dos mesmos.
A caracterização das inteligências artificiais é prévia ao relacionamento dos riscos imponderáveis que geram como refere Scupola, A. (2023).A técnica de mutualização de riscos dos seguros são uma forma adequada de cobrir os riscos, aceite como ferramenta económica, jurídica e social em contexto dos riscos associados à inteligência artificial.
Outra técnica, bastante disruptiva, consistiria em atribuir personalidade jurídica própria aos sistemas de IA de modo a torná-los responsáveis pelos danos culposos e ou negligentes que possam causar.
Síntese
A obra divide -se um quatro capítulos. No primeiro desenvolvem-se questões gerais de inteligência artificial como a definição jurídica de IA a partir do artigo 3.1 d do Regulamento da EU 2024/1689, a imprevisibilidade associada à IA e consequentemente os riscos e danos que podem ser produzidos. Considera a IA como sendo um programa informático (software) alojado num suporte material (hardware) capaz de produzir efeitos com autonomia. Para Ahmed, I., Jeon, G., & Piccialli, F. (2022) a inteligência artificial está integrada na realidade da industria 4.0 sendo considerada a componente liderante da mesma em que as máquinas inteligentes executam tarefas autonomamente, desde a auto monitorização, o diagnóstico, a interpretação e a análise.
No capítulo segundo percorrem-se as perspetivas da inaptidão dos sistemas de IA para abranger os danos possíveis, procurando-se soluções políticas, que não jurídicas para enfrentar os riscos apresentando-se remédios possíveis para os mesmos a partir da componente analítica da responsabilidade civil subjetiva e objetiva.
No capitulo terceiro sistematiza-se perante a elevada incerteza associada à IA uma abordagem obrigatória à sua transferência para o setor segurador, face à experiência deste na gestão dos riscos, evitando a constituição de elevadas reservas de capital do lado empresarial ou sua falência, perante um sinistro incontrolável desprotegendo assim segurados e terceiros. O desenvolvimento de uma base legal potencial é um desafio para segurar um conjunto de fatores com a estimação de um risco tão incerto, a possibilidade de neutralizar a incerteza associada a um risco incontrolável, exige bastante tempo de experiência, o que falta e como tal a identificação torna-se problemática, na própria declaração de risco individualizado, dificultando a determinação da modalidade contratual adequada e consequentemente quem deve pagar os prémios (o utilizador final, o fabricante, o distribuidor), como acontece nos veículos autónomos dotados de inteligência artificial.
No capítulo quarto discute-se o cenário de uma solução híbrida para suporte das consequências destes riscos de potencial severidade e sem o necessário respaldo financeiro sustentado da atividade seguradora a partir das provisões técnicas associadas ao risco, e a ausência de seguro subscrito como acontece para os casos do Fundo de Garantia Automóvel (FGA) em Portugal. A constituição de um fundo de garantia os riscos emergentes da IA, assumiria um formato distinto, incorporando uma parceria público-privado como acontece nos seguros de colheitas ou o preconizado para os riscos climatéricos e/ou riscos sísmicos. A eventual insuficiência do fundo nos seus primórdios, dada a ausência de experiência atuarial para a sua estimação, obrigaria a soluções indemnizatórias baseadas no rateio, não vinculando o Estado a assumir o eventual cap de excess-loss.
O capitulo quinto, parte-se da dificuldade de provar a causa dos danos a partir da abordagem da responsabilidade civil objetiva, isto é, independentemente da culpa e forma de indemnizar as vítimas a partir de um fundo de garantia como referenciado no quarto capítulo para a procura de uma solução mais disruptiva, dotando a inteligência artificial de uma personalidade jurídica limitada, de base patrimonial, contratual e processual capaz de assumir responsabilidades. A personalidade “eletrónica” como solução, desumaniza os algoritmos, na linha do que possibilitou no seculo XIX a criação de personalidade jurídica para as sociedades comerciais e aproxima-se da abordagem criativa do marketing digital para a figura da “persona”. A dotação de personalidade jurídica para a IA obrigaria na linha da Resolução do Parlamento Europeu de 16 de fevereiro de 2017 (2015/2103(INL)) sobre os robots a que os sistemas de IA possuíssem património próprio específico capacitado de valor indemnizatório, mas no projeto de regulamento sobre as IAs de 20 de outubro de 2020 estabelece-se que os mesmos “ não possuem personalidade jurídica nem consciência humana e a sua única função é servir a humanidade”.
Análise crítica/interpretativa
A problematização do conceito de IA partindo da clarificação de um conjunto de linhas de código , sob a designação de algoritmo, funcionando em diferentes tipo de máquinas (tablets, smartphones, laptops, PC ou outros wearables) pode controlar diversos processos físicos como a condução de um carro autónomo. A gestão da incerteza na condução autónoma pode resultar em acidentes causadores de danos físicos e corporais. Mas a questão que emerge é a responsabilidade desses danos é de caracter culposo ou não? Existe autonomia na IA capaz de diferenciar se perante um acidente estamos perante responsabilidade civil objetiva ou subjetiva?
A capacidade de aprendizagem dos sistema de IA replicam sistemas neuronais, onde a quantidade de dados podem ser utilizados de formas distintas a partir de uma “caixa negra” ou então de uma “caixa branca” desembocando em resultados imprevistos ou calculados.
O exemplo aplicado à análise de imagens para a determinação de um cancro é um bom exemplo do que se pode expressar como um extra “best doctors” ou um médico comum.
Nos seguros estão sempre subjacentes dois conceitos em torno da segurabilidade: a probabilidade do evento e a sua causalidade. Ora a IA quando gera potenciais danos não antecipáveis, coloca em si a delimitação do custo da sua proteção financeira e consequentemente problematiza-se a sua segurabilidade. O que emerge não é a incerteza é a imprevisibilidade da própria incerteza como Vicente, G. M. (2024) expõem “pueden llegar a descubrir caminos inimaginados” para de seguida avaliando o atual estado da arte na tecnologia partilhar que é “muy difícil evaluar de forma suficiente dos riesgos…e imposible hacerlo racionalmente de manera completa”.
O enfrentamento dos riscos causados pela IA é uma necessidade crescente com o alargamento do seu campo de aplicabilidade referenciado por vários autores citados por Vicente, G. M. (2024) em torno da responsabilidade extracontratual como Atienza Navarro (2024) ou Girgado Peradones (2022). Mas usando o racional preconizado para a responsabilidade objetiva atinente aos robots no que concerne a danos e prejuízos, a Resolução do Parlamento Europeu de 3 de maio de 2022 2020/2266(INI) relativa à IA preconiza que a responsabilidade objetiva seja aplicada conjuntamente com a “cobertura de seguro obrigatória” refere ainda Vicente, G. M. (2024).
Sendo o risco uma realidade no funcionamento da inteligência artificial, então o dano torna-se inevitável e a melhor ferramenta para mitigar os seus efeitos é o seguro.
Na indústria seguradora não vida, este é caso de um risco que podemos situar num âmbito global e, portanto, o padrão da sua mutualização deve ser mundial e desenvolver-se a partir do ecossistema ressegurador, porque as consequências de um risco de um algoritmo de inteligência artificial pode ser instalado em computadores ou wearables tanto na China como na Europa ou na América do Norte por exemplo. A inteligência artificial instalada para a condução autónoma diferirá do grau de automação, a tal ponto que o autor refere que no caso do nível mais elevado (nível 5) não se falar propriamente de condução.
Isto deverá conduzir a que o risco associado a este tipo de situação, seja obrigatório, independentemente da responsabilidade civil ordinária e da responsabilidade criminal do “condutor” não retirar aos seguradores o seu direito de ressarcimento perante uma atividade culposa, no quadro legal de funcionamento dos princípios indemnizatórios de uma atividade altamente regulada como é a seguradora.
A limitação do montante a ressarcir é fundamental que se especifique, de modo a garantir níveis de solvência sustentáveis, e os efeitos de litigância, como acontece hoje no seguro obrigatório de responsabilidade civil automóvel para danos materiais, e corporais.
A segurabilidade dos riscos associados à inteligência artificial exigem a sua decomposição, valoração, mediação da sua incerteza ou probabilidade e registo de modo a possuirmos bases técnicas adequadas à tarifação. Não estamos a falar de um jogo de apostas, mas de um cálculo atuarial onde a certeza dos sinistros existe numa carteira de riscos amplamente detida por dada seguradora e com base na qual se estima o valor do prémio puro.
A segurabilidade da inteligência artificial está condicionada à indeterminação do risco por desconhecimento do seu nível de incerteza para determinar a sua probabilidade e à magnitude dos danos a provisionar, tornando tecnicamente impossível o cálculo do prémio. Portanto a quantificação do risco, dadas as características de reprodução e alteração dos algoritmos, dota a imprevisibilidade de um caracter excecional, podendo estar a falar de uma modelização estocástica do risco, que exige à partida um volume de capital muito reforçado que cai fora de critérios de retorno económico e financeiro racionais.
Perante isto, Vicente, G. M. (2024) propõem três níveis de soluções : “ uma solução de confiança que engloba todo o sistema segurador de forma solidária”; uma solução preventiva onde cada seguradora “impõe prémios elevados, acima de qualquer previsão”; ou adota uma solução de “ não mutualização do risco”, eliminando a hipótese de segurar.
Ora perante um cenário de risco incontrolável e de recursos finitos, o autor propõe a renúncia voluntária de princípios irrenunciáveis como é a indeminização. Ora limitando de forma uniforme o seu montante por sinistrado, ora estabelecendo limites indemnizatórios por sinistro, e por período temporal assumindo o Estado o excess-loss numa perspetiva social de resseguro proporcional. A alternativa seria registar durante um período adequado (10 anos por exemplo) os sinistros emergentes da IA para posteriormente valorizar a probabilidade de risco e o seu custo num contexto mutualização de seguro obrigatório, isto é, detenção de informação fiável e adequada.
A problemática da declaração inicial de risco, efetuada pelo tomador de seguro no contexto da informação assimétrica que caracteriza a transferência de risco para o setor segurador, pressupõem transparência e a objetividade na descrição dos riscos de modo que a seguradora dotada de expertise sobre os mesmos os avalie e valide.
As seguradoras no que concerne à inteligência artificial não possuem experiência, nem informação suficiente pelo que a indagação e análise de risco que pretendam efetuar, está condicionada pelo princípio da “raposa na capoeira”, ou seja, dependente da informação que as empresas interventoras no “negócio da IA” possam elas próprias, auto estimar, de modo a desenvolver padrões classificativos e previsores robustos que acomodem a probabilidade dos danos.
A solução preconizada pelo autor no atual contexto de conhecimento dos potenciais danos provocados pela IA, passa por tornar o seguro obrigatório para os segurados, utilizadores da mesma, no risco de responsabilidade civil objetiva, autonomizando os riscos emergentes da responsabilidade civil subjetiva assentes na culpa ou mera negligência. Perspetivando o custo do seguro de IA, quer para os “fabricantes” quer para os “comercializadores” tornar-se-iam responsáveis pelo preço final cobrado aos clientes, sem incorrerem em risco de insolvência de probabilidade elevada numa lógica custo-benefício.
Uma solução deste género obrigaria assim ao seguro para o consumidor final, os comercializadores e fabricantes, apontando numa fase inicial de internalização deste risco nas seguradoras, para uma parceria público-privada como deve acontecer para os riscos de fenómenos climatéricos extremos (por exemplo wild fires, degelos polares, etc.)
Alternativamente à inexistência de seguro por parte das seguradoras dever-se-ia proceder à criação de um fundo de garantia público que poderia atuar em regime de exclusividade ou em parceria com as seguradoras, dotado de fundos próprios adequados e evitando que em caso de severidade de danos, insuficiência de provisão para proceder à quota parte do pagamento das indeminizações.
O papel crescente de ferramentas de parceria público-privada são consideradas ferramentas necessárias numa nova era de gestão de riscos ensaiadas em ferramentas de cooperação social na área dos seguros como já referido anteriormente nomeadamente em Portugal (Fundo de Garantia Automóvel, Fundo de Acidentes de Trabalho e futuro fundo de risco sísmico). No caso dos riscos de IA Vicente, G. M. (2024) considera várias hipóteses de dotação de recursos e onde pontuariam as empresas envolvidas na cadeia de negócio de IA com contribuições obrigatórias. A gestão do processo indemnizatório determinando-se quanto pagar, que limites observar, e como suprir os casos de ausência de seguro válido ou de falência da entidade privada responsável pelo dano de IA como acontece nos casos enquadrados na intervenção do FGA seria um papel singular ou articulado do Fundo de Garantia de Riscos de IA. A necessidade de reposição de recursos insuficientes derivaria de uma adequação de capital por parte do Estado.
A última abordagem da obra de Vicente G. (2024) foca-se no desenvolvimento de uma solução jurídica disruptiva que consistiria na atribuição de personalidade jurídica aos algoritmos responsabilizando-os em termos de responsabilidade civil objetiva, independentemente da culpa pela violação da proteção prevista na lei em linha com a resolução do Parlamento Europeu de 16 de fevereiro de 2017 acima referida, sobre robótica onde foi solicitada personalidade jurídica para os robots mais autónomos. Apresenta vários exemplos como são as entidades públicas, as sociedades, as fundações e até a laguna do mar Menor.
No caso da inteligência artificial necessitar-se-ia de dotar a “pessoa” de uma identidade e de uma identificabilidade e perceber como a conter nos limites dessa “personalidade” na sua capacidade para se autodesenvolver, duplicar, etc. Igualmente teria de se criar um sistema de registo e cadastro das “pessoas” da IA.
Se o que está em causa é um mero processo ressarcitório de danos, sem outras finalidades como contribuir para a segurança social, então a dotação de personalidade jurídica para os algoritmos tende a uma valoração minimalista.
Conclusão
O papel da seguro na identificação dos riscos associados à IA, na estimação do valor dos prémios a pagar e da padronização das coberturas, associando uma componente obrigatória no domínio da responsabilidade civil objetiva é claramente o caminho a perseguir. Essa caminhada dado o sentido de urgência e celeridade que o tratamento de dados está a assumir pelas diversas formas de inteligência artificial merce que se avaliem os riscos progressivamente, capturando elementos que nos permitem construir bases técnicas robustas. O gap temporal estimado como minimamente seguro (10 anos) estimula desde já, uma aliança para a criação de um Fundo de Garantia que se articule com as seguradoras que explorem este risco.
A eventual atribuição de personalidade jurídica aos algoritmos da IA esbarra com o desenvolvimento dos mesmos, e a capacidade de as máquinas criarem autonomamente algoritmos como acontece em processos de deep learning. A discussão em torno da responsabilização pelos danos culposos não possui abrangência suficiente para ultrapassar a discussão académica na perspetiva do risco, nem mesmo no caso dos algoritmos do blockchain com o seu caracter imutável.
Outras discussões de carácter ético em torno dos riscos e usos da inteligência artificial são necessários, mas do ponto de vista da estimação dos danos e sua segurabilidade a importância fixa-se na identificação dos seus padrões, para caracterizar as respetivas coberturas e sua mensuração.
Referências Bibliográficas
Vicente G. M. ( 2024). Los riesgos generados por la inteligencia artificial y los possibles mecanismos para su mutualización. Ed. Fundación Inade.
Scupola, A. (2023). A Review of Concepts and Applications of AI in Non-Life Insurance.
Regulation (EU) 2024/1689 of the European parliament and of the council of 13 June 2024
Ahmed, I., Jeon, G., & Piccialli, F. (2022). From artificial intelligence to explainable artificial intelligence in industry 4.0: a survey on what, how, and where. IEEE Transactions on Industrial Informatics, 18(8), 5031-5042.
Resolução do Parlamento Europeu, de 3 de maio de 2022, sobre a inteligência artificial na era digital (2020/2266(INI)).
Autor : Fernandes da Silva
General Manager: A. Fernandes da Silva Consulting Lda