Buscar

_Convergência Ética e Estratégica - Referenciais pdf

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 48 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 48 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 48 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

39
Capítulo II
REFERENCIAIS PARA 
UMA DISCUSSÃO SOBRE ÉTICA 
NA IA E DIREITO
Inevitably, like in preceding technological revolutions,
digital information technology’s impact
has been so pervasive that we are no longer simply adopting it
– doing what we have done before –
but adapting to it by changing
how we behave.
Shohini Kondu (2019)
in Ethics in the Age of Artificial Intelligence
1 - INTRODUÇÃO
O Capgemini Research Institute18 realizou uma pesqui-
sa muito interessante com 1580 executivos de 510 organiza-
ções e 4.400 consumidores para buscar traçar um perfil de 
como a questão ética é percebida, qual a transparência em 
suas experiências com IA e como as questões éticas podem 
beneficiar as organizações. As organizações que usam a IA 
de forma ética têm uma vantagem concreta (pontuação su-
18 Disponível em: https://www.capgemini.com/research/why-address 
ing-ethical-questions-in-ai-will-benefit-organizations/. Último acesso 
em: 2/2/2020.
user
Realce
40
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
perior) em relação às que não usam. Entre os consumidores, 
62% disseram que atribuem maior confiança em uma orga-
nização que consideram aspectos éticos no uso da IA. Tam-
bém é forte a percepção dos consumidores da existência de 
IA com problemas éticos. 47% dos consumidores acreditam 
ter experimentado pelos dois tipos de IA que resultaram em 
questões éticas nos últimos 2-3 anos e ¾ dos consumidores 
esperam novos regulamentos sobre o uso da IA. 
A IA está mudando o processo de tomada de decisão, 
pois tem a capacidade concreta de tomar decisões melhores 
tanto no aspecto qualitativo quanto em termos de eficiência 
e rapidez. Será que a IA, nesse processo de tomada de deci-
são, retirou a transparência, a explicabilidade, a previsibili-
dade, a auditabilidade e outras garantias que são atribuídas 
à decisão humana? Ou, na realidade, são ilusões associadas 
à reprobabilidade de condutas que os sistemas morais e ju-
rídicos atribuem às pessoas como mecanismos pedagógicos 
ou de compensação? Se podemos levantar todo um questio-
namento, por exemplo, sobre o sistema cognitivo humano na 
tomada de decisões que exigem algum nível de justificação, 
podemos trabalhar com a indicação da maior quantidade 
possível de standards de controle ou referencial ético para a 
machine learning. Ao menos em um recorte pragmático, pode-
mos melhorar o nível ético de aplicação da IA. Para tanto, al-
guns referenciais são relevantes e serão o objeto do Capítulo.
O presente capítulo se destinará à apresentação de re-
ferenciais variados para se discutir ética no desenvolvimen-
to e uso de sistemas de IA no Direito. O capítulo se iniciará 
com a apresentação de referenciais multilaterais, que além 
de contribuir substancialmente para a questão, demonstram, 
dentro de uma visão estratégica para a IA, a relevância para 
que os próprios sistemas de IA sejam viáveis e sustentáveis 
ao longo dos próximos anos.
Dentro da proposta de Overview, o capítulo também 
apresentará alguns referenciais estrangeiros, dentre eles, a 
União Europeia, que é um dos principais espaços de discus-
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
41
são sobre riscos, limites e oportunidade para a IA em geral. 
Também trará visões gerais canadenses, alemãs, norte-ame-
ricanas, indicando as escolhas para o Review.
Haverá também no capítulo um espaço para o relato 
de algumas visões acadêmicas de ética para IA e direito. O 
capítulo chegará ao fim apresentando alguns movimentos 
na ética da IA e direito, que encerram a parte da visão geral 
proposta na estrutura do presente livro.
2 - REFERENCIAIS MULTILATERAIS
Em outubro de 2018, houve a International Conference 
of Data Protection, onde foi feita uma Declaration on Ethics and 
Protection in Artificial Intelligence, que apresenta algumas di-
retrizes éticas importantes. Destaca-se o dever de reduzir 
preconceitos ou discriminações no desenvolvimento e apli-
cação de soluções de IA. Isso converge com as necessidades 
éticas nas etapas de verificação e validação, acima expostas.
Polonski (2018), em seu artigo Mitigating algorithmic bias 
in predictive justice: 4 design principles for AI fairness, sugere 
princípios que vão além de parâmetros tradicionais de ava-
liação da AI, como acurácia e velocidade. O primeiro desses 
princípios é chamado de representation, verificado a priori, 
que deve buscar uma proteção contra preconceitos injustos 
e uma paridade de representação no datase, evitando o risco 
de sub-representação na fase de treinamento, quando mo-
delos eventualmente tendenciosos sejam submetidos a um 
novo treino, que sejam utilizados algoritmos para atenuar 
distorções ou tendências indesejadas metodologicamente. O 
segundo, protection, impõe aos sistemas de machine learning, 
mecanismos para evitar efeitos injustos aos indivíduos vul-
neráveis. A protection demanda projetos metodológicos de 
design e aplicação abrangentes, que permitam a prevenção 
de efeitos negativos em função de gênero, raça, etnia, na-
cionalidade, orientação sexual, religião, vertentes políticas, 
entre outros, posto que o sistema treinará e será testado em 
referenciais de dados de uma realidade desigual e repleta 
user
Realce
user
Realce
user
Realce
42
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
de preconceitos, bem como a possibilidade de correção de 
desvios detectados nas permanentes checagens da aplicação. 
O terceiro, stewardship, significa que os sistemas de machine 
learning têm a responsabilidade ativa pela realização de jus-
tiça e o compromisso com a inclusão em todas as etapas do 
desenvolvimento de modelos de IA. Por último, a authenti-
city, ou seja, além da confiança nos dados, deve existir uma 
autenticidade na visão da própria construção (autenticidade 
nas predições da IA), pois serão usadas para suporte a al-
guma decisão, mesmo que não seja algum tipo de decisão 
peremptória.
2.1 - OCDE (OECD), G20 e princípios para IA19:
Ao estabelecer os princípios para a IA, em 2019, a 
OCDE definiu como objetivo promover uma IA inovadora 
e confiável, que respeite direitos humanos e valores demo-
cráticos. Além de seus membros (36), Argentina, Colômbia, 
Costa Rica, Romênia, Peru e o Brasil aderiram ao estabeleci-
do, totalizando 42 países.20
A orientação de construção de um modelo foi para se 
estabelecer padrões práticos e ajustáveis ao tempo, perante 
o reconhecimento da rápida evolução da IA. Considerou-se 
também o aspecto sistêmico, em observação ao que já foi es-
tabelecido em termos de proteção à privacidade, segurança 
digital e conduta comercial responsável.
Dessa forma, organizaram-se cinco princípios estrutu-
rados na seguinte tabela:
19 Disponível em: https://www.oecd.org/going-digital/ai/principles/. 
Último acesso em 22/1/2020.
20 Disponível em: https://www.oecd.org/going-digital/forty-two-
countries-adopt-new-oecd-principles-on-artificial-intelligence.htm. 
Último acesso em: 22/1/2020.
user
Realce
user
Realce
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
43
Tabela 1. Princípios para IA da OCDE21
Descrição do Princípio
1 A IA deve beneficiar as pessoas e o planeta, impulsionando 
o crescimento inclusivo e sustentável e o bem-estar.
2 Os sistemas de IA devem ser projetados de maneira a respei-
tar o estado de direito, valores democráticos e a diversida-
de, e devem incluir salvaguardas apropriadas (por exemplo, 
possibilitando a intervenção humana, quando necessária, 
para garantir uma sociedade leal e justa)
3 Deve haver transparência e divulgação responsável em tor-
no de sistemas de IA para garantir que as pessoas entendam 
os resultados baseados em IA e, eventualmente, possam 
questioná-los.
4 Os sistemas de IA devem funcionar de maneira robus-
ta, segura e protegida ao longo de todo seu ciclo de vida. 
Os riscos em potencial devem ser avaliados e gerenciados 
continuamente.
5 As organizações ou indivíduos quedesenvolvem, implan-
tam ou operam sistemas de IA devem ser responsabilizados.
O OCDE também estabeleceu recomendações aos 
governos:
Tabela 2. Recomendações aos governos pela OCDE
Descrição da recomendação
1 Facilitar o investimento público e privado em pesquisa e de-
senvolvimento para estimular a inovação em IA confiável.
2 Promover ecossistemas de IA acessíveis, com infraestrutura 
digital, tecnologia e mecanismos de compartilhamento de 
dados e conhecimento.
3 Garantir um ambiente de políticas para abrir caminho para 
implantação de sistemas de IA confiáveis.
21 Dos documentos e textos estrangeiros ao longo do livro foram 
feitas traduções livres e, eventualmente, no entendimento do autor, 
buscando uma forma de melhor compreensão no contexto brasileiro.
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
44
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
4 Capacitar as pessoas em habilidades para a IA, bem como 
apoiar os trabalhadores tradicionais para uma transição 
adequada.
5 Cooperar para o progresso em uma administração respon-
sável da IA confiável.
Logo após a aprovação, em maio de 2019, o G-20 apre-
sentou o G20 Ministerial Statement on Trade and Digital Eco-
nomy22, dedicando ao tema da economia digital, destacando 
os tópicos: sociedade do futuro centrada no ser humano; 
liberdade de fluxo de dados com confiança; IA igualmente 
centrada no ser humano; abordagens políticas ágeis e flexí-
veis na economia digital; segurança; estabelecimento de me-
tas de desenvolvimento sustentável e inclusão.
Não só organismos multilaterais, mas também Estados 
também iniciaram suas organizações em torno do debate éti-
co na IA.
3 - REFERENCIAIS ESTRANGEIROS
3.1 - Ética em IA para a União Europeia (UE):
O Parlamento Europeu tem feito discussões interes-
santes sobre a temática de ética no contexto da IA. Em um 
texto de 201923, há o reconhecimento da importância das di-
retrizes éticas (igualmente publicadas em 2019) e os impac-
tos gerados pela tecnologia da IA na sociedade europeia.
No documento do final de 2019 se reforça a ideia mo-
triz da UE em fazer uma abordagem da IA por uma visão 
antropocêntrica. E a partir disso, a construção de princípios 
e orientações.
22 Disponível em: https://www.mofa.go.jp/files/000486596.pdf. Último 
acesso em: 18/2/2020.
23 Disponível em: https://www.europarl.europa.eu/RegData/etudes/
BRIE/2019/640163/EPRS_BRI(2019)640163_EN.pdf. Acesso em: 13 de 
janeiro de 2020.
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
45
Há indicativos um pouco menos recentes, mais muito 
úteis, como por exemplo, Bostrom24 (2011), que fez um texto 
sobre a ética na inteligência artificial. Nesse texto destaca-se, 
além dos desafios apontados para o futura da IA, princípios 
éticos para máquinas com algum status moral, embora o pró-
prio Bostrom reconheça que os princípios não forneceram 
todas as respostas a todas as questões éticas:
Tabela 3. Princípios para a IA, segundo Bostrom
Princípio Descrição
Princípio da não 
discriminação 
do substrato
Se dois seres têm a mesma funcionalidade e a 
mesma experiência consciente e diferem ape-
nas no substrato de sua implementação, eles 
têm o mesmo status moral. Esse princípio é 
básico para se evitar formas de preconceito. 
Para Bostrom, não significa que um computa-
dor deva estar consciente ou possa ter a mesma 
funcionalidade que um ser humano, mas que 
um substrato só será relevante se alterar a fun-
cionalidade ou sensibilidade.
Princípio da não 
discriminação 
da ontogênese
Se dois seres têm a mesma funcionalidade e a 
mesma experiência de consciência, e diferem 
apenas em como eles surgiram, então eles têm 
o mesmo status moral. Trata-se, segundo Bos-
trom, de uma extensão a sistemas cognitivos 
artificiais daquilo que já é claro aos humanos, 
que o status moral não depende de conceitos 
passados, como linhagens, castas, formas de 
geração, parto, nutrição, etc. Além disso, ainda 
segundo Bostrom, assim como os pais têm de-
veres especiais para com o filho, os proprietá-
rios de um sistema de IA com status moral têm 
deveres especiais, como o desenvolvimento de 
uma ética para tratamento de mentes artifi-
ciais. Destaca-se a sugestão de que muitas per-
guntas sobre como devem ser tratadas mentes
24 Disponível em https://nickbostrom.com/ethics/artificial-intelligence.
pdf . Último acesso em: 16/11/2020.
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
46
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
artificiais poderiam ser respondidas (Bos-
trom), tratando a mente artificial aplicando os 
mesmos princípios que são usados para deter-
minar deveres em contextos familiares.
Em um artigo, Springer, Etzion (2017)25 apresenta uma 
relevante ideia de que uma parte significativa dos desafios 
colocados à IA, e o desafio ético está nesse contexto, podendo 
ser tratado pelo tipo de escolhas éticas já feitas pelo humano. 
Isso ajuda a delimitar o problema, que não se trata de fazer 
a máquina desenvolver standards éticos, mas de delimitar, no 
universo de padrões humanos que a máquina irá ser treina-
da, com preocupações éticas.
O pesquisador da George Washington University se apoia 
em pesquisas sobre carros autônomos26 (certamente a temá-
tica mais avançada em termos de pesquisas sobre decisões 
éticas e morais associadas a sistemas de IA).
3.1.1 - IA e Direito: diretrizes éticas para a UE
Há diversos debates e diretrizes no ambiente da Co-
munidade Europeia. Antes propriamente de se apontar as 
diretrizes, destaca-se Madiega (2019, p. 10), ao estabelecer 
de forma muito clara as atividades do uso de IA: projetar, 
desenvolver, implantar, implementar ou usar. Interessante 
também que ele apresenta a IA como produto ou serviço. 
Essa classificação tem um efeito muito grande no sentido de 
se observar o grau de autonomia da IA. Há também suges-
25 Disponível em: https://philpapers.org/archive/ETZIEI.pdf . Último 
acesso em: 19 de janeiro de 2020.
26 Sempre comento quando surge a oportunidade, em minhas aulas e 
apresentações, que as pesquisas sobre decisões morais encontram 
ambiente favorável (dados, apoio financeiro e vários fatores) em 
sistemas de IA para veículos autônomos. É preciso avaliar esse 
fenômeno sobre duas perspectivas: a positiva é o próprio fomento à 
pesquisa e desenvolvimento da temática; a negativa é que os sistemas 
de IA (conceitos, limites, características) não podem ficar circunscritos 
a uma aplicação (veículos autônomos), que têm muitas especificidades.
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
47
tões no sentido de uma forte estratificação com instâncias 
com potencial de controle da IA:
a) Comissão de impactos de IA;
b) Código de ética para engenharia de robôs;
c) Agência europeia para “robotics and AI”;
d) Elaboração de um documento com plano coordena-
do e aprovado pelo Conselho da União Europeia;
e) Estabelecimento de diretrizes de ética para uma IA 
confiável.
Como objetivo de toda essa construção, menciona Ma-
diega (2019, p. 1), que é possível identificar a necessidade de 
adoção de padrões éticos para possibilitar regras de transpa-
rência; requisitos comuns para avaliações de possíveis im-
pactos em direitos fundamentais e estabelecimento de um 
cenário jurídico adequado para as aplicações. Como caracte-
rísticas para a IA: ela deve ser legal (cumprindo toda a legis-
lação e regulamentação); ética (garantindo a observância de 
princípios e valores éticos) e sólida (do ponto de vista técnico 
e do ponto de vista social – não bastam boas intenções, mas 
não se deve causar danos, mesmo que não intencionais).
Disso pode ser extraído níveis de abstração das orien-
tações27:
1) Bases de uma IA de confiança: princípios éticos 
para IA ética e sólida;
2) Concretização de uma IA de confiança: sete requisi-
tos para o ciclo completo de vida;
3) Avaliação de uma IA de confiança: lista preliminar,não exaustiva de avaliação de IA de confiança.
As diretrizes europeias de abril de 201928 para a con-
cretização de uma IA de confiança são:
27 A partir da construção EU guidelines on ethics in artificial 
intelligence: Context and implementation, segundo Madiega (2019).
28 As diretrizes foram apresentadas em um documento elaborado pelo 
grupo de peritos de alto nível sobre a inteligência artificial (GPAN 
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
48
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
Tabela 4. Diretrizes para concretização de uma IA de confiança 
para a UE
Diretriz Descrição
1 Ação e supervisão humanas.
2 Solidez técnica e segurança.
3 Privacidade e governança dos dados.
4 Transparência.
5 Diversidade, não discriminação e equidade.
6 Bem-estar social e ambiental.
7 Responsabilização.
Tabela 5. Itens incluídos em cada Diretriz para concretização de 
uma IA de confiança para a UE
Diretriz Inclusão
1 Direitos fundamentais.
2 Resiliência perante ataques, planos de recurso, 
exatidão, fiabilidade e reprodutibilidade.
3 Qualidade e integridade dos dados e acesso aos 
dados.
4 Rastreabilidade, explicabilidade e a comunicação.
5 Prevenção de enviesamentos injustos, acessibilidade, 
concessão universal e participação das partes 
interessadas.
6 Sustentabilidade e respeito ao meio ambiente, o 
impacto social, a sociedade e a democracia.
7 Auditabilidade, minimização e a comunicação dos 
impactos negativos, as soluções de compromisso e as 
vias de recurso.
IA). Disponível em: https://ec.europa.eu/digital-single-market/en/
news/ethics-guidelines-trustworthy-ai. último acesso em: 13 de 
janeiro de 2020.
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
49
Tabela 6. Interpretação original das diretrizes pelo GPAN IA29
Diretriz Inclusão
1 “Os sistemas de IA devem apoiar a autonomia e a to-
mada de decisões dos seres humanos, tal como pres-
crito pelo princípio de respeito da autonomia humana. 
Isto exige que os sistemas de IA funcionem como fa-
cilitadores de uma sociedade democrática, próspera 
e equitativa, apoiando a ação do utilizador e a pro-
moção dos direitos fundamentais, e que permitam a 
supervisão humana.”
“À semelhança de muitas outras tecnologias, os sis-
temas de IA tanto podem favorecer como prejudicar 
o usufruto dos direitos fundamentais. Podem benefi-
ciar as pessoas, por exemplo, ajudando-as a rastrear 
os seus dados pessoais ou aumentando o seu aces-
so à educação e apoiando, assim, o direito à mesma. 
No entanto, dado o alcance e a capacidade dos siste-
mas de IA, também podem afetar negativamente a 
defesa dos direitos fundamentais. Nas situações em 
que existem riscos como estes, deve realizar-se uma 
avaliação do impacto nos direitos fundamentais an-
tes do desenvolvimento dos sistemas, a qual deve in-
cluir uma avaliação da possibilidade de reduzir ou 
justificar esses riscos na medida do necessário numa 
sociedade democrática, a fim de respeitar os direitos 
e liberdades dos outros. Além disso, devem ser cria-
dos mecanismos para receber observações externas 
sobre os sistemas de IA que possam contrariar os di-
reitos fundamentais.”
2 “Uma componente crucial para que a IA de confiança 
se torne realidade é a solidez técnica, que está estrei-
tamente ligada ao princípio da prevenção de danos. A 
solidez técnica exige que os sistemas de IA sejam de-
senvolvidos seguindo uma abordagem de prevenção 
29 Presente a partir da página 18 do documento (Ethicsguidelinesfortrust 
worthyAI-PTpdf.pdf), obtido no próprio guideline, disponível em: 
https://ec.europa.eu/digital-single-market/en/news/ethics-guide 
lines-trustworthy-ai. Último acesso em: 14 de janeiro de 2020.
user
Realce
user
Realce
user
Realce
user
Realce
50
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
dos riscos e de forma a que se comportem fiavelmente 
conforme o previsto, minimizando os danos não in-
tencionais e inesperados, e prevenindo os danos ina-
ceitáveis. Tal deverá também ser aplicado a eventuais 
alterações do ambiente em que operam ou à presença 
de outros agentes (humanos e artificiais) que possam 
interagir com o sistema de forma antagónica. Além 
disso, deve assegurar-se a integridade física e mental 
dos seres humanos.”
3 “Estreitamente ligado ao princípio de prevenção de 
danos está o direito à privacidade, um direito fun-
damental que é particularmente afetado pelos sis-
temas de IA. A prevenção da ameaça à privacidade 
também exige uma governação adequada dos dados, 
que assegure a qualidade e a integridade dos dados 
utilizados, a sua relevância para o domínio em que os 
sistemas de IA serão implantados, os seus protocolos 
de acesso e a capacidade de tratar os dados de modo 
a proteger a privacidade.”
4 “Este requisito está estreitamente relacionado com o 
princípio da explicabilidade e abrange a transparência 
dos elementos relevantes para um sistema de IA: os 
dados, o sistema e os modelos de negócio.”
5 “A inclusão e a diversidade têm de estar presentes 
em todo o ciclo de vida do sistema de IA para que 
a IA de confiança se torne uma realidade. Além da 
consideração e do envolvimento de todas as partes in-
teressadas ao longo do processo, tal implica também 
que a igualdade de acesso mediante processos de 
conceção inclusivos e a igualdade de tratamento se-
jam asseguradas. Este requisito está estreitamente 
relacionado com o princípio da equidade.”
6 “Em conformidade com os princípios da equidade 
e da prevenção de danos, a sociedade em geral, ou-
tros seres sensíveis e o ambiente também devem ser 
considerados partes interessadas ao longo do ciclo de 
vida da IA. A sustentabilidade e a responsabilidade 
ecológica dos sistemas de IA devem ser incentivadas 
e deve ser promovida a investigação em soluções de
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
51
IA direcionadas para áreas de interesse global, como, 
por exemplo, os Objetivos de Desenvolvimento 
Sustentável. Idealmente, a IA deve ser utilizada em 
benefício de todos os seres humanos, incluindo as 
gerações futuras, meio ambiente, o impacto social, a 
sociedade e a democracia.”
7 “O requisito de responsabilização complementa os 
requisitos acima enunciados, estando estreitamente 
relacionado com o princípio da equidade. Exige que 
sejam criados mecanismos para garantir a responsa-
bilidade e a responsabilização pelos sistemas de IA 
e os seus resultados, tanto antes como depois da sua 
adoção.”
Percebe-se que mesmo sendo denominado Ethics guide-
lines for trustworthy AI, o resultado do grupo GPAN IA con-
densa as dimensões legais e técnicas em suas recomenda-
ções. Fica marcante a opção do documento, referendado pelo 
Council of the European Unian, em fazer uma previsão abran-
gente e, em forte medida, compromissória. Haverá, sem dú-
vida, muito trabalho para conferir contornos mais operati-
vos, especialmente para iniciativas de inovação ligadas à IA.
Em essência, como Madiega (2019, p. 3) já observou, o 
princípio central das diretrizes éticas para a IA é a deter-
minação para se desenvolver uma abordagem centrada no 
homem e deve respeitar os valores e princípios europeus. 
Nesse conceito amplo, o destaque se dá para que a IA respei-
te os valores humanos fundamentais, garantindo os direitos 
fundamentais e seja respeitada a dignidade humana.
Acredita-se, em alguma boa medida, que a abordagem 
antropocêntrica – prima facie justificável, poderá colocar as 
reflexões sobre ética em IA em dificuldades. Poderia induzir 
que se estaria atendendo às demandas éticas ao se reprodu-
zir as características ou atividades humanas, ao se espelhar 
na atitude humana. E isso é complicado! A tecnologia deve 
se dissociar do dataset humano, se isso atender melhor aos 
princípios éticos. Guardadas as devidas semelhanças, o ter-
user
Realce
user
Realce
52
COLEÇÃO DIREITO, RACIONALIDADEE INTELIGÊNCIA ARTIFICIAL
mo pode (de forma até mesmo absolutamente inocente) gerar 
dificuldades semelhantes à alcunha de Inteligência Artificial, 
dada à ciência que busca reproduzir habilidades cognitivas 
humanas. O próprio termo indicaria uma substituição/con-
corrência da inteligência humana por uma inteligência de 
máquina. Houve e ainda há todo um trabalho de explicação 
para dissociar essa mítica associada à IA. A própria UE tem 
produzido muito conhecimento no sentido de enfraquecer 
os mitos da igualdade/superação na relação da inteligência 
artificial e humana. Essa imprecisão de batismo pode ser ve-
rificada no conceito human-centric.
Ah, mas irá se dizer que o human-centric tem significa-
do diverso, isto é, que a solução de IA deve ser voltada ina-
lienavelmente ao homem. Talvez seja um exagero cético, mas 
esse ponto de partida somente é plausível para quem pen-
sar como Münchhausen. O human centric diz-se muito (e se 
protege do erro), mas aumenta a agrura, pois laceado. Como 
ficariam os preconceitos atávicos? Como ficaria o dano ino-
cente? Sem afastar a relevância humana (afinal é próprio 
pressuposto do Direito), precisa-se de mais para se efetiva-
mente cuidar-se da ética.
Tudo que uma preocupação ética na IA não precisa é 
de mais anfibolia. Mesmo que sujeito à crítica pela incomple-
tude e por mais difícil que seja, a reflexão sobre os parâme-
tros éticos deve buscar exatidão e justeza. De toda sorte, os 
extensos trabalhos da UE na discussão de ética e IA podem 
auxiliar muito no encaminhamento das questões brasileiras.
3.2 - Ética e IA em pesquisas de interesse para o tema30
Em 2018, o Canadá31 produziu um conjunto de princí-
pios orientadores e uma classificação de níveis de impacto 
30 Há outros países com pesquisas importantes, mas pela dimensão 
espacial de um livro, foram necessários alguns recortes. Justiça 
seja feita, México, Índia, Japão, Holanda, países escandinavos entre 
outros têm excelentes trabalhos.
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
53
para o uso de Machine Learning for decision-making, com qua-
tro estágios:
Tabela 7. Níveis de avaliação de impacto
Nível Descrição do impacto
1 LEVE – há pouco impacto em termos de direitos indivi-
duais, coletivos, bem-estar, saúde, interesses econômicos 
ou sustentabilidade. Os impactos são reversíveis e breves.
2 MODERADO – impactos nos termos do item 1, só que 
moderados, com provável reversão e de curto prazo.
3 ALTO – impactos nos termos do item 1, só que altos, 
com dificuldade de reversão.
4 MUITO ALTO – impactos nos termos do item 1, só que 
altos, com impactos irreversíveis.
E, assim, a partir do risco de impacto se estruturou um 
sistema de recomendações de revisões por pares, níveis mí-
nimos de comunicação, nível mínimo de intervenção huma-
na para a tomada de decisão durante o processo de decisão, 
exigência de explicação significativa fornecida com a decisão 
proferida (especialmente em casos que resultem na negação 
de acesso a um direito ou benefício ou serviço). Além disso, 
igualmente de forma escalonada em razão do nível de im-
pacto, antes da produção propriamente dita, são necessários 
mecanismos apropriados para que os dados de treinamento 
sejam testados para bias32, bem como mecanismos frequen-
31 Treasury Board Directive on the Use of Machine Learning for 
Decision-Making. Disponível em: https://www.tbs-sct.gc.ca/pol/
doc-eng.aspx?id=32592. Último acesso em: 14 de janeiro de 2020.
32 Este é um tópico de grande relevância para o estudo da IA 
atualmente, especialmente quando se trata da sua relação com a área 
do Direito: na qual os temas de justiça e equidade representam uma 
relação necessária. Chama-se de “machine bias”, “algorithm bias”, ou 
simplesmente “bias”, quando uma IA apresenta um comportamento 
tipicamente preconceituoso, nas palavras de Paulo Sá Elias: “É o viés 
tendencioso. A remoção de tal viés tendencioso em algoritmos não 
é trivial e é um campo de pesquisa em andamento. Os desvios são 
difíceis de serem descobertos se o algoritmo for muito complexo 
user
Realce
54
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
tes de testes e atualizações. Paralelamente, recomendam-se 
níveis de monitoramento para preservar resultados não in-
tencionais, garantindo conformidade com a legislação com 
os princípios da diretiva. Por fim, especificações de treina-
mento, planos de contingência e níveis de aprovação para 
que o sistema se torne operacional são estruturados pelo do-
cumento canadense.
No fim de 2018, na Alemanha33, foi desenvolvido o AI 
strategy, com uma série de medidas sobre ética para todas as 
etapas de desenvolvimento e usos da IA. É um estudo e um 
documento detalhado que apresenta desde uma definição de 
inteligência artificial até uma avaliação de conexões e estra-
tégias sobre o tema.
Destacam-se, no escopo do presente texto, inicialmen-
te os campos de desenvolvimento que demandam precau-
ções éticas:
Tabela 8. Campos da IA para a AI strategy alemã:
Campo Descrição
1 Sistemas de dedução, provas baseadas em máquina: 
dedução de declarações formais a partir de expressões 
lógicas, sistemas para provar a correção de hardware e 
software
(como são os utilizados pelo Google), pior ainda se forem secretos. 
Se o algoritmo é simples e auditável, especialmente publicamente 
auditável, então haverá em tese [...] mais chances de que as decisões 
baseadas em tais algoritmos possam ser mais justas. Igualmente 
em relação aos dados utilizados para “treinar” o algoritmo. Se eles 
forem auditáveis (e anônimos quando apropriados) poderão ser 
identificados desvios dessa natureza. Disponível em: ELIAS, Paulo 
Sá. Algoritmos, Inteligência Artificial e o Direito. Conjur, novembro, 
2017. Disponível em: https://www.conjur.com.br/dl/algoritmos-
inteligencia-artificial.pdf. Último acesso em 2/2/2020.
33 O pdf do documento Nationale KI Strategie foi obtido em: https://
towardsdatascience.com/ai-made-in-germany-the-german-strategy-
for-artificial-intelligence-e86e552b39b6, último acesso em: 14 de 
janeiro de 2020.
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
55
2 Sistemas baseados no conhecimento: método para pa-
dronizar a coleta de experiências, software para estimu-
lar a experiência humana e apoiar especialistas (ante-
riormente designados “sistemas especialistas”);
3 Análise de padrões e reconhecimento de padrões: pro-
cessos analíticos indutivos em geral, aprendizado de 
máquina em particular;
4 Robótica: controle autônomo de sistemas robóticos, isto 
é, sistemas autônomos;
5 Interação homem-máquina multimodal inteligente: 
análise e “entendimento” da linguagem (em conjunto 
com a linguística), imagens, gestos e outras formas de 
interação humana.
Interessante que no modelo alemão, ao definir standards 
éticos, também ficam expostos os objetivos para o trabalho:
1) Fazer a Alemanha e a Europa referências em IA, 
salvaguardando a competitividade alemã/europeia 
no futuro;
2) Buscar um desenvolvimento responsável para uma 
IA que sirva ao bem da sociedade;
3) Realizar uma integração da IA à sociedade, além 
nos campos ético, legal, cultural e institucional, em 
uma perspectiva de diálogo social.
Destaca-se a ideia estratégica alemã, ao se articular 
campos, objetivos, investimentos e diretrizes para o desen-
volvimento da IA, de se estabelecer uma marca “Inteligência 
Artificial Made in Germany”, como garantia de reconhecimen-
to de qualidade mundial. Esse conceito estratégico reforça a 
importância de se estabelecer standards éticos claros e uma 
arquitetura/moldura para o desenvolvimento de sistemas de 
IA, especialmente no escopo do trabalho para a IA no Direito.
Daly34 (2019, p. 13) menciona princípios relevantes para a 
formação dessa marca “Inteligência Artificial Made in Germany”:
34 Disponível em: https://arxiv.org/pdf/1907.03848.pdf. Último acesso 
em: 14 de janeiro de 2020.
user
Realce
user
Realceuser
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
56
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
1) Soberania dos dados;
2) Autodeterminação informacional e
3) Segurança dos dados.
Os três princípios relacionam-se a uma necessidade de 
integridade de datasets e uma maior proteção ao bias. Além 
disso, procedimentos para se facilitar auditorias e compre-
ensão da arquitetura algorítmica são importantes.
Pelo observado, embora também com um formato 
compromissário, pode-se dizer, em concordância com Daly 
(2019), que a Alemanha tem um roteiro claro e com visão 
estratégica para a promoção e uso da IA.
Nos Estados Unidos, percebe-se, também na mesma 
época (2018/2019), uma série de iniciativas marcadamente 
em um sistema self-regulation. Importantes empresas de tec-
nologia e associações produziram uma série de recomenda-
ções no sentido de melhores práticas35. A Partnership on AI 
também pode ser incluída nesse contexto de buscar melho-
res práticas na IA e reúne Amazon, Facebook, Google, IBM, 
Microsoft, entre outros consideráveis atores no desenvolvi-
mento, aplicação e monitoramento de impactos da IA. Em 
março de 2019, o governo federal norte-americano lançou o 
AI.gov, indicando a necessária combinação de esforços en-
tre os três centros de desenvolvimento: indústria, academia 
e governo. Afirmou categoricamente que estamos na era da 
inteligência artificial, na qual tudo se transformará! O AI.gov 
é um documento que apresenta (nos moldes alemães) uma 
visão estratégica (Executive Order 13859 – United States Na-
tional Strategy on Artificial Intelligence), com destaque em pro-
moção de pesquisa e desenvolvimento sustentável, remoção 
35 Nesse sentido é possível citar: 1) Fairness, Accountability, 
Transparency and Ethics in AI da Microsoft (https://www.microsoft.
com/en-us/research/group/fate/); 2) Artificial Intelligence at Google: 
our Principles: (https://ai.google/principles/) ; 3) a Partnership on 
AI também pode ser incluída nesse contexto de desenvolvimento de 
melhores práticas (https://www.partnershiponai.org/partners/). 
Últimos acessos em 14/01/2020.
user
Realce
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
57
de barreiras para a inovação em IA e consolidação de uma 
diretoria de Inteligência Artificial diretamente ligada à Casa 
Branca. Sob o ponto de vista dos valores estadunidenses 
para a IA, estabeleceu-se o seguinte rol:
1) IA compreensível e confiável;
2) IA robusta e segura;
3) IA com benefícios e cuidados com a força de trabalho;
O Departamento de Defesa (DoD)36 norte-americano 
realizou um estudo sobre princípios éticos para a IA e for-
mulou um lista com cinco:
Tabela 9. Princípios de AI Ethics para o DOD
Características Explicação
Responsável As pessoas devem exercer níveis adequados de 
julgamento e permanecerem responsáveis pelo 
desenvolvimento, implantação, uso e resultados 
dos sistemas de IA.
Equitativo Deve se evitar viés não intencional no desenvol-
vimento e implantação de sistemas de IA.
Rastreável A arquitetura deve ser suficiente para que espe-
cialistas possuam entendimento adequado da 
tecnologia, processos de desenvolvimento, mé-
todos operacionais de seus sistemas de IA (in-
cluindo transparência, auditabilidade, registro 
de dados e documentação do design.
Confiável Os sistemas de IA devem ter um domínio de uso 
explícito e definido, e a segurança, proteção e ro-
bustez dos sistemas devem ser testadas ao longo 
de todo ciclo de vida.
Governável Os sistemas de IA devem ser projetados para 
além de cumprir sua função, poder detectar erros, 
36 AI Principles: Recommendations on the Ethical Use of Artificial 
Intelligence by Department of Defesense. Disponível em https://
media.defense.gov/2019/Oct/31/2002204458/-1/-1/0/DIB_AI_
PRINCIPLES_PRIMARY_DOCUMENT.PDF, último acesso em 16 de 
janeiro de 2020
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
58
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
danos ou interrupções não intencionais, bem 
como para permitir a desativação humana ou 
automatizada de segurança.
Além de estabelecer princípios/características impor-
tantes para o desenvolvimento e aplicação de IA, o DoD faz 
interessantes recomendações operacionais, as quais se desta-
cam para o objetivo do presente texto:
Tabela 10. Recomendações operacionais do DOD para o tema:
Recomendação Detalhamento
1. Estabelecimento 
de um Comitê de IA
Formação de alto nível de conhecimento 
para garantir a supervisão na execução 
da estratégia de IA para que os Projetos 
de IA estejam de acordo com os princí-
pios éticos estabelecidos.
2. Elaboração de 
Programas de 
treinamento
Desenvolvendo de habilidades e conhe-
cimentos relacionados à IA, para envol-
vidos no desenvolvimento (área técnica 
com áreas operacionais) quanto nas áre-
as de aplicação. O documento fala que 
vários programas de treinamento de IA 
devem ser amplamente disponibiliza-
dos, para funcionários de todos os níveis,
desde os iniciantes nas carreiras, deven-
do aproveitar-se o conteúdo digital exis-
tente, combinado com instruções perso-
nalizadas.
3. Investimento em 
pesquisa
Pesquisas associadas à era da IA e asso-
ciadas a outros campos, como: segurança 
cibernética, computação quântica, opera-
ções de informação ou biotecnologia.
4. Investimento 
em pesquisas 
que melhorem a 
reprodutibilidade 
dos sistemas de IA
Entendendo como os sistemas de IA 
funcionam, como podem ser aplicados, 
como estão os desenvolvimentos e au-
xílio à resolução do problema da “caixa 
preta” da IA.
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
59
5. Definir referências 
de confiabilidade e 
desempenho
Os sistemas de IA devem ser projeta-
dos para, além de cumprir sua função, 
cumpri-la com maior confiabilidade e 
desempenho que o padrão humano.
6. Fortalecer estratégias 
e técnicas da avaliação 
de IA
Usar ou melhorar procedimentos de tes-
te, avaliação, verificação e validação e, 
quando necessário, criar nova infraes-
trutura para os sistemas de IA.
7. Desenvolver uma 
metodologia de 
gerenciamento 
de riscos
A partir da criação de uma taxonomia 
de usos de IA com base nas dimensões 
éticas, de segurança e de risco legal. 
A taxonomia deve incentivar a rápida 
adoção de tecnologias maduras em apli-
cações de baixo risco e priorizar maior 
precaução com aplicações menos madu-
ras e associadas a possíveis consequên-
cias adversas mais significativas.
8. Realizar encontros 
(conferência) anuais 
sobre segurança e 
robustez
Para ser possível se concentrar no exame 
da ética incorporada à IA, envolvendo 
uma pluralidade de manifestações.
O texto do DoD menciona, além das recomendações 
operacionais listadas, duas posturas que sintetizam as preo-
cupações éticas:
1) Garantir a implementação adequada dos princípios 
de ética à IA, orientando que a governança e super-
visão se direcionem também a esse fim;
2) A necessária expansão de pesquisas para entender 
as melhores formas de implementação concreta de 
princípios éticos à IA.
Em 2017, o Future of Live Institute realizou a The Asilomar 
Conference on Beneficial AI37. Nela foram estabelecidos princí-
pios éticos e valores para o desenvolvimento e uso da IA:
37 Disponível em: https://futureoflife.org/ai-principles/. Último acesso 
em: 24/2/2020.
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
60
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
Tabela 11. Princípios éticos e valores da The Asiolomar Conference 
on Beneficial AI:
Princípio Descrição
1 Segurança Os sistemas de IA devem ser seguros e 
protegidos durante toda a vida útil ope-
racional e de forma verificável, quando 
possível e viável.
2 Transparência 
de falhas
Se um sistema de IA causar danos, deve 
ser possível determinar o motivo.3 Transparência 
judicial
Qualquer envolvimento de um sistema 
autônomo na tomada de decisões judi-
ciais deve fornecer uma explicação satis-
fatória auditável por uma autoridade hu-
mana competente.
4 Responsabilidade Desenvolvedores (designers e construto-
res) de sistemas avançados de IA são par-
tes interessadas nas implicações morais 
de seu uso, uso indevido e ações, com res-
ponsabilidade e oportunidade de moldar 
essas aplicações.
5 Alinhamento 
de valores
Os sistemas de IA altamente autônomos de-
vem ser projetados para garantir que seus 
objetivos e comportamentos se alinhem aos 
valores humanos durante toda a operação.
6 Valores humanos Os sistemas de IA devem ser projetados 
e operados de modo a serem compatíveis 
com os ideais de dignidade humana, di-
reitos, liberdades e diversidade cultural.
7 Privacidade 
pessoal
As pessoas devem ter o direito de acessar, 
gerenciar e controlar os dados que geram, 
dado o poder dos sistemas de IA de anali-
sar e utilizar esses dados.
8 Liberdade e 
privacidade
A aplicação da IA a dados pessoais não 
deve limitar de maneira irracional a liber-
dade real ou percebida das pessoas.
9 Compartilhamento 
de benefícios
As tecnologias de IA devem beneficiar 
e capacitar o maior número possível de 
pessoas.
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
61
10 Compartilhamento 
de prosperidade
A prosperidade econômica criada pela 
IA deve ser amplamente compartilhada, 
para beneficiar toda a humanidade.
11 Controle humano Os seres humanos devem escolher como 
e se devem delegar decisões aos sistemas 
de IA, para alcançar igualmente os objeti-
vos escolhidos pelos seres humanos.
12 Não subversão O poder conferido pelo controle de sis-
temas de IA altamente avançados deve 
respeitar e melhorar, em vez de subverter 
os processos sociais e de cidadania, dos 
quais depende o bem-estar da sociedade.
13 Evitar a corrida 
armamentista
Uma corrida armamentista com armas 
autônomas letais deve ser evitada.
John Tasioulas, do King’s College London38 apresenta 
um conjunto de parâmetros para serem analisadas as ques-
tões éticas ligadas a robôs39:
Tabela 12. Rubricas apresentadas por John Tasioulas:
Rubrica Detalhamento
1. Funcionalidade A capacidade de alcançar uma meta, com 
um grau confiável de sucesso, de forma efi-
ciente, sem desperdício de recursos e sem 
violar normais morais.40
38 Disponível em: https://www.academia.edu/39734877/First_Steps_
Towards_An_Ethics_Of_Robots_And_Artificial_Intelligence. 
Último acesso em: 20/01/2020.
39 Registra-se que o autor original fez uma construção das suas rubricas: 
functionality, inherent significance, rights and responsibilities, side-
effects, and threats, de modo que as primeiras letras de cada uma 
forme a expressão FIRST. Disponível em: https://www.academia.
edu/39734877/First_Steps_Towards_An_Ethics_Of_ Robots_And_
Artificial_Intelligence. Último acesso em: 20/1/2020.
40 Tasioulas (2019 p. 55-56) relembra oportunamente as três leis da robó-
tica de Isaac Asimov, que fundamentam bem essa rubrica: um robô 
não pode causar danos ao ser humano; um robô deve acatar ordens 
dadas pelo ser humano, exceto se conflitarem com a primeira lei e, 
user
Realce
user
Realce
user
Realce
user
Realce
62
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
2. Significado 
inerente
Além dos requisitos da funcionalidade em 
uma tarefa é preciso enfrentar a reflexão so-
bre o significado inerente de se atribuir essa 
tarefa a um sistema de IA. Se a retirada da 
tarefa humana pode ser benéfica?
3. Direitos e 
responsabilidades
Se uma IA é funcional e tem significado be-
néfico surge outra questão de se ela possui 
um status moral que lhe confere direitos e 
responsabilidades?41 42 43
4. Efeitos colaterais Efeitos colaterais sempre existirão, no âm-
bito das relações pessoais, de trabalho, po-
dendo gerar algum tipo de privação social, 
desigualdade e tensões.
5. Ameaças Há sérias ameaças no sentido de existir 
sistemas de IA projetados para realizar 
objetivos malignos, tais como violação de 
privacidade, fraude financeira, ataques ter-
roristas (tanto por pessoas criminosas, gru-
pos terroristas, corporações ou governos). 
Tais sistemas violariam a rubrica da funcio-
nalidade. Há também risco de sabotagem 
ou subversão de sistemas benéficos, como a 
utilização de dados corrompidos ou invadi-
dos por agentes malignos.
Uma das mais graves ameaças associadas 
aos sistemas de IA é o bom funcionamento 
da própria democracia, que exige espaço li-
vre para deliberação e debate, informações 
dentro de um fluxo normal, ou seja, requer 
um fluxo livre de informações de modo a 
permitir que as deliberações democráticas
 por fim, um robô deve preservar sua própria existência, exceto se essa 
proteção conflitar com as duas primeiras leis, mais precisamente: “1. 
A robot may not injure a human being or, through inaction, allow a 
human being to come to harm. 2 A robot must obey the orders given 
it by human beings except where such orders would conflict with the 
First Law.” 3. A robot must protect its own existence as long as such 
protection does not conflict to with the First or Second Laws.”
user
Realce
user
Realce
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
63
moldem a formação de políticas e com 
garantias de que haja um sistema de res-
ponsabilidades e responsabilização. Bots 
saturando bases de informação e outras 
plataformas, fazendo-se passar por huma-
nos; criação de falsificações audiovisuais 
praticamente indetectáveis, manipulando e 
enganando e formando distintos universos 
informacionais; obtenção ilícita de dados 
privados podem gerar um risco de magni-
tude elevada à democracia.
Tasioulas (2019) reforça a ideia de interconexão do 
nível ético com o nível normativo, advogando tanto pela 
aplicação de um sistema normativo mais geral quanto à ne-
41 Tasioulas faz interessante resgate de um pensamento: “Os computa-
dores começaram como grandes máquinas remotas em salas com 
ar-condicionado, atendidas por técnicos de revestimento branco. 
Posteriormente, eles se mudaram para nossas mesas, depois para os 
braços e agora nos bolsos. Em breve, rotineiramente os colocaremos 
dentro de nossos corpos e cérebros. Por fim, nos tornaremos mais 
não biológicos que biológicos (Para uma discussão mais completa, 
Kurzweil 2005).” Refere-se a: Kurzweil, R. (2002). “We Are Becoming 
Cyborgs.” <http://www.kurzweilai.net/we-are-becoming-cyborgs> 
e Kurzweil, R. (2005). The Singularity is Near: When Humans 
Transcend Biology. London: Duckworth.
42 No mesmo sentido da nota anterior, em janeiro de 2020, saiu a notícia 
que pesquisadores da Universidade de Vermont e da Universidade 
de Tufts, nos EUA, desenvolveram organismos programáveis 
chamados Xenobot. Trata-se de uma arquitetura produzida por um 
supercomputador alimentado por um algoritmo, que trabalha com 
padrões e combinações para criar formas de vida rudimentares. A 
partir de células-tronco de embriões de sapo, ocorre uma organização 
de seres vivos com habilidades para apanhar ou empurrar partículas, 
ou até se autorregenerar. Disponível em: https://www.tecmundo.
com.br/ciencia/149305-robos-vivos-criados-partir-celulas-tronco-
sapos.htm. Último acesso em 20/1/2020.
43 É uma reflexão importante sobre o ponto de vista de conceitos jurídicos 
como personalidade, capacidade, obrigação e responsabilidade, na 
medida em que artefatos de IA caminham em termos de autonomia, 
inclusive de desenvolvimento.
user
Realce
64
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
cessidade de um sistema regulatório específico, por exem-
plo, para carros autônomos e a responsabilidade, seguro ou 
armamentos autônomos, etc. Além da interconexão norma-
tiva, um segundo nível seria uma reflexão sobre moralida-
de social – que tipode moralidade social é desejada? Essa 
observação é justificada por Tasioulas, pois nem todos os 
padrões socialmente arraigados que governam nossas vidas 
são ou deveriam ser padrões legais. Segundo ele, confiamos 
não apenas na lei para desencorajar as pessoas a compor-
tamentos não desejáveis, mas em padrões morais que são 
estruturados desde a infância.
Destaca-se ainda no trabalho de Tasioulas (2019), a sín-
tese com relação a um dever principal da IA, que está numa 
interconexão do aspecto normativo com o ético, que é o dever 
de não enganar. Na medida em que a informação está sendo 
produzida e controlada por sistemas de IA, esse é o maior de-
safio, inclusive em termos de riscos democráticos. As rubricas 
têm justamente o papel de reduzir os riscos dos sistemas de 
IA e apontar desvios a serem enfrentados. Tasioulas indica 
um bom caminho, nas medidas tecnológicas para proteção 
aprimorada da privacidade de dados pessoais, mais trans-
parência em relação ao uso de dados por provedores de pla-
taformas on-line e processos de registro mais rigorosos para 
contas de mídias sociais, legislação mais rigorosa para fake 
news, mecanismos de aumento da responsabilidade democrá-
tica (que deve se fortalecer ao mesmo tempo e hora que é uma 
das grandes vítimas dos potenciais negativos da IA).
Tasioulas (2019), em tom mais apocalíptico, afirma 
que precisamos de soluções democráticas para problemas 
colocados pela IA, antes que ela seja usada para destruir a 
própria democracia. Na medida em que há pouco, os mitos 
associados à IA foram sendo compreendidos, essa afirma-
ção deve ser profunda e cautelosamente bem compreendida. 
Não pode servir de argumento para o não desenvolvimento 
– porque ela só será desenvolvida para se chegar a sistemas 
de IA projetados para realizar objetivos malignos. Isto é um 
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
65
pensamento tolo! Então, a frente de esforços deve ser para a 
identificação de desvios e ferramentas de prevenção, contro-
le, diagnóstico, neutralização e responsabilização.
4 - REFERENCIAIS ACADÊMICOS RELEVANTES PARA UMA 
VISÃO DE ÉTICA EM IA E DIREITO
Em um interessante trabalho, Daly (2019, p. 6)44 apre-
senta o seu significado de ética em IA. Ética é vista como 
uma teoria da reflexão da moralidade, ou, em outras pala-
vras, uma teoria da boa vida. No campo da ética aplicada, 
defende a inclusão da ética na tecnologia, que, por sua vez, 
teria a ética da IA como uma subcategoria. Defenderia uma 
IA para uma autorreflexão das ciências da computação e en-
genharia que se dedicam à pesquisa e ao desenvolvimento 
de IA e suas divisões, como a machine learning. Quanto aos 
campos típicos da IA são elencados veículos autônomos, ma-
nipulação política por aplicativos, sistemas de armas autôno-
mos, reconhecimento facial, algorithmic discrimination, bots de 
conversação, classificação e ranking por algoritmo.
Daly (2019) expõe que as principais demandas da ética 
(associada à IA) estão relacionadas aos próprios objetivos e 
propósitos da pesquisa, a direção do financiamento da pes-
quisa, a conexão entre política e a ciência, a segurança dos 
sistemas, os vínculos de responsabilidade e uma orientação 
propriamente ao bem. Também afirma que a proximidade 
da pesquisa ou aplicação de IA com um discurso ético tem 
impacto concreto no curso da própria ação que lida com a 
IA. Afirma também que a reflexão ética deve ser pragmáti-
ca. Muito relevante é a passagem (2019, p. 7) que afirma que 
a dimensão da aplicação ética tem efeito, com grau de nor-
matividade, quando funciona oscilando para a orientação. 
Como barreira [originalmente seria designado como irrita-
ção], a ética tem um grau fraco de normatividade (descobrin-
44 Disponível em https://arxiv.org/pdf/1907.03848.pdf. Último acesso 
em: 21/1/2020.
user
Realce
user
Realce
66
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
do pontos cegos e questões sub-representadas). Oscilando 
para o sentido de orientação significa um caminho para forte 
normatividade, que tem como desvantagem provocar efeitos 
restritivos e comportamentos backfire (esse efeito se traduz 
em uma tendência de certas pessoas de resistir a evidências, 
reforçando suas crenças originais). Para Daly (2019), a ética 
em IA deve satisfazer duas características para ser eficaz: 
deve usar fraca normatividade: 1. Usar fraca normativida-
de e não determinar universalmente o que é certo e o que 
é errado; 2. Buscar a proximidade com o objeto designado, 
implicando que a ética deve fazer parte de um estudo inter/
transdisciplinar diretamente ligado às áreas de seus objetos.
Em 2019, a International Technology Law Association 
(ITECHLAW)45, por meio de um grupo multidisciplinar de 
16 países, em um debate cujo tema foi Responsible AI: a global 
policy framework, estabeleceu uma relação de oito princípios:
Table 13. ITECHLAW – Principles
Princípios
1 Finalidade ética e benefício social
2 Accountability
3 Transparência e explicabilidade
4 Lealdade e não discriminação
5 Segurança e confiabilidade
6 Abertura a datasets usados para desenvolvimento e 
competição leal (compliance by design)
7 Proteção à privacidade
8 Proteção à propriedade intelectual
Em outubro de 2019, um paper de Yuan Stevens traba-
lhou com o tema da IA responsável, em um referencial para o 
Canadá. O trabalho faz uma descrição das iniciativas do Cy-
45 International Technology Law Association (ITECHLAW). Disponível 
em: https://www.itechlaw.org/sites/default/files/ResponsibleAI_
Principles.pdf. Último acesso em: 23/1/2020.
user
Realce
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
67
berjustice Laboratory da Faculdade de Direito da Universidade 
de Montreal. O laboratório está em um projeto levantando os 
impactos da IA nos sistemas de justiça ao redor do globo.
Neste trabalho há uma ideia relevante para a reflexão 
da ética em IA e Direito: é essencial que os especialistas ju-
rídicos façam uma distinção entre o uso de um sistema de 
IA propriamente e um mero vaporware de IA (que existe há 
décadas), cujas promessas ainda precisam ser cumpridas. Aí 
é fundamental ter muito claro o tratamento que se deve dar 
aos mitos associados à IA, para identificar-se o campo efeti-
vamente necessário para as diretrizes ético-normativas.
A manifestação do Cyberjustice Laboratory considerou 
realizar sugestões no sentido de táticas para concretizar 
os princípios, como a criação de um escritório de avaliação 
tecnológica, a promulgação ou alteração de legislação para 
prestação de contas da IA e incentivando a regulamentação 
estatal em vez da autorregulação da indústria da IA.
A partir dessa orientação, há a apresentação de cinco 
propostas:
Table 14. Propostas do Cyberjustice Laboratory – Law School – 
University of Montreal
Descrição
1 A necessidade de os países participantes apresentarem alte-
rações legislativas concretas.
2 Para o princípio 1 da ITECHLAW (Finalidade ética e bene-
fício social), seria interessante incentivar a criação de um 
escritório canadense de avaliação tecnológica.
3 Para o princípio 2 da ITECHLAW (Accountability), deve-se al-
terar ou formular legislação de responsabilização por atos e 
omissões a todos os setores em que se utilize sistemas de IA.
4 Para o princípio 4 da ITECHLAW (Lealdade e não discri-
minação), deve-se estimular a publicação de relatórios que 
instruam o público sobre leis antidiscriminação existentes 
e as possibilidades de sistemas de IA com risco de facilitar 
discriminação.
user
Realce
user
Realce
68
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
5 Para o princípio 5 da ITECHLAW (Segurança e confiabilida-
de), deve-se, nos casos em que os sistemas de IA estão pron-
tos para uso ou já estejam sendo utilizados, uma legislação 
em substituição à autorregulação.
Partindo do contexto dos robôs sociais, Fosch-Villa-
ronga (2019) busca apontar opiniões sobre a questão ética, 
normativa e social associadaà tecnologia, obtidas nas dis-
cussões de especialistas46 em quatro workshops47 temáticos, 
apontando desafios especialmente associados à privacidade, 
à autonomia, à desumanização nas interações sociais, às re-
lações de trabalho e à transformação laboral.
Destaca-se no texto sobre a temática da privacidade e 
segurança a própria dificuldade do estabelecimento de um 
conceito comum do que é privacidade. Há também preocu-
pações sobre a repercussão da atividade de robôs em termos 
físicos e informacionais em relação aos seres humanos que 
com ele interagem. Há a preocupação com o acesso dos robôs 
a ambientes antes reservados, algo antes impossível, ao me-
nos nessa escala. Outra preocupação associada é a possibi-
lidade de controle de dados coletados e processados apenas 
pela proximidade do robô em um ambiente privado e sem a 
percepção humana. Disso derivam necessárias reflexões so-
46 Especialistas do Japão, Reino Unido, Suécia, Dinamarca, França, 
Islândia, , Itália, Noruega, Holanda, Grécia, Estados Unidos, Suíça, 
Espanha e Coréia do Sul.
47 “NewFriends First International Conference on Social Robots in Therapy 
and Education,2 the workshop turned into a workshop series that 
has brought together researchers from different disciplines and 
countries over three years to discuss the most pressing ELS issues 
of social robots in a solution- oriented roundtable format. We 
organized workshops in Barcelona, Spain, under the NewFriends 2nd 
International Conference on Social Robots in Therapy and Education in 
November 2016; in Yokohama, Japan, under the International Symposia 
on Artificial Intelligence (isAI), organized by the Japanese Society for 
Artificial Intelligence (JSAI) (also JSAI-isAI 2016) in November 2016; 
and at the Edin- burgh Center for Robotics, Scotland, as part of the 
European Robotics Forum on March 2017.” (Fosch-Villaronga, 2019)
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
69
bre com conceitos de integridade, capacidade de evitar bias, 
corrigir ou alterar dados.
Sobre a segurança, o desafio relatado é com a violação 
da vigilância, por exemplo, no caso do robô ser invadido por 
hackers em contextos muito sensíveis (note-se que a discus-
são está centrada em robôs sociais, com usos amplos para 
acompanhamento, saúde e segurança de pessoas – em mui-
tos casos, em situação de vulnerabilidade).
Sobre a autonomia, apontou-se uma série de desafios, 
que vão desde a carga de culpa em eventos críticos até a dú-
vida se os robôs deveriam ser vistos como moralmente res-
ponsáveis por algo. O debate sobre autonomia e capacidade 
de tomada de decisão independente estão em níveis de abs-
tração diferentes. Pode-se dizer que é tênue, mas é diferente 
a capacidade dos robôs de tomar uma decisão por conta pró-
pria ou uma adaptação à vontade dos usuários [ou desen-
volvedores]. Para o caso dos robôs, relata Fosch-Villaronga 
(2019), ao se adaptarem aos usuários, isso poderá reduzir o 
acaso e não afrontar/desafiar os processos de tomada de de-
cisão do usuário. No entanto, as discussões não foram sufi-
cientes no sentido de se estabelecer uma ordem hierárquica 
com regras sobre as decisões autônomas e se deveria haver 
um humano supervisionando.
Sobre a segurança houve outro desafio identificado: 
os robôs deveriam substituir decisões humana em alguns 
casos, por razões de segurança ou proteção do próprio hu-
mano, porque o robô pode ter uma compreensão melhor do 
problema ou se essa percepção poderia levar a um cenário 
de dependência. O foco no design de controle foi identificado 
como relevante.
Fosch-Villaronga (2019) destaca como recomendações: 
clareza, transparência e divisão de responsabilidades entre 
desenvolvedores, fabricantes, adotantes e usuários (espe-
cialmente no caso do robô adaptar seu comportamento ao 
padrão do usuário), com concentração de esforços para se 
prever bias e modelar comportamentos para consequências. 
user
Realce
70
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
Houve a ideia de protocolos de atuação tanto na prevenção 
quanto na reação (nos moldes que são feitos em aviões), an-
tecipando cenários inadequados. Como exemplo, apontou 
para a criação de faixas para carros autônomos, separando-
-os de carros não autônomos. Outra sugestão foi a criação 
de um fundo de compensação (semelhante ao criado para 
desastres naturais). Outra importante sugestão veio no sen-
tido de organização de um sistema de seguro e uma matriz 
para distribuição de responsabilidade, que leve em conta os 
diferentes níveis de autonomia do robô e de complexidade 
do ambiente.
Destaca-se ainda no trabalho de Fosch-Villaronga 
(2019) que essa matriz de distribuição de responsabilidade 
está muito relacionada com o sistema de tomada de decisão 
autônoma. Uma espécie de régua deveria ser estabelecida, 
incluindo um modelo hierárquico (por exemplo, a decisão 
médica prevalece sobre a decisão do enfermeiro, mas não so-
bre a decisão do próprio paciente) ou coparticipativo com o 
usuário. O importante seria refletir que, assim como as com-
panhias de seguro atribuem valores, pesos e importâncias 
a diferentes situações e riscos – sempre com o cuidado do 
viés preconceituoso, o tratamento para os riscos associados a 
robôs pode seguir essa lógica.
Uma observação importante é que com variáveis ní-
veis de engajamento humano, o robô também produz, ao 
longo do tempo, respostas imperfeitas. Segundo o relato 
de Fosch-Villaronga (2019), a personalidade é formada por 
comportamentos únicos e imperfeitos e robôs podem acabar 
também sendo únicos. E cita um exemplo singelo, mas muito 
interessante: o robô PLEO (pequeno dinossauro robô) evo-
lui de maneira diferente, dependendo das interações com os 
usuários. Esse é um grande desafio para se falar em termos 
de um sistema responsável em termos de cumprimento/to-
lerância aos padrões ético-normativos.
Outro ponto importante para o debate ético foi levan-
tado no relato de Fosch-Villaronga (2019), que é a diminuição 
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
71
da interação humana (human-human). Houve a argumenta-
ção de que a interação humana pode não ser drasticamente 
reduzida, porque a interação do robô normalmente é dife-
rente (one-to-one) e não uma interação com grupo de pessoas. 
Por outro lado, é necessário refletir que na medida em que 
um sistema supre algum tipo de necessidade humana, que 
antes dependia do auxílio/interação com outros humanos, 
a tendência lógica é de que em alguma medida a interação 
entre humanos seja reduzida. As perguntas seriam em até 
que medida esta interação diminuiria? O que seria eticamen-
te desejável? A quantidade ou a qualidade de interação (ou 
ambas)? Se a diminuição em quantidade seria diretamente 
proporcional a uma diminuição na qualidade da interação 
entre humanos? Por outro lado, como potencialidade, em 
uma perspectiva de concretização de direitos humanos, os 
próprios robôs podem ser preparados com a incorporação 
de algoritmos para padrões de conversas, padrões motores 
e reconhecimento de dados psicológicos e cognitivos das 
interações humanas com fins terapêuticos, autocontrole das 
emoções e da saúde mental.
Assim, parece consistentemente claro, que a depender 
de como os robôs são projetados, podem exacerbar ou redu-
zir o contato entre humanos e auxiliá-lo ou dificultá-lo. Uma 
diretriz importante pode ser a finalidade de mediação so-
cial, no sentido de incorporar elementos que estimulem a in-
teração social. O exemplo interessante citado é o robô orien-
tado para uma criança em que constantemente se incentiva a 
criança a perguntar aos colegas de classe alguma informação 
ou ao professor, mostrando claramente que o robô auxilia, 
mas não é a fonte de inteligência, que é melhor interagir com 
pessoas do que com um robô que não sabe muitas coisas.
Alguns indicadores já são mencionados por Fosch-
-Villaronga (2019), que devem de alguma formaorientar a 
permanente tensão no desenvolvimento de robôs entre: atrair 
o maior número possível de usuários e respeitar a proteção de 
direitos individuais e coletivos. No caminho está a minimi-
72
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
zação de acesso a dados pelo robô; a limitação de finalidades; 
o consentimento dinâmico, transparência e direito de expli-
cação; acesso fácil ao usuário; eliminação de dados pelo usu-
ário, regulation-by-design e compliance-by-default; design parti-
cipativo e centrado no ser humano; abordagens baseadas em 
risco; sistema de seguros; selo de avaliação; regras claras de 
tomada de decisão e mecanismos de resolução de disputas; 
fundos de compensação e distribuição de responsabilidade.
Table 15. Visão geral dos desafios, recomendações:48
Desafio Aspectos chave Recomendações
Privacidade 
e segurança
• Dificuldade do esta-
belecimento de um 
conceito comum do 
que é privacidade;
• Minimização de acesso 
a dados pelo robô e 
limitação de suas fina-
lidades;
• Falta de consentimen-
to e controle sobre os 
dados;
• Configurações para 
uma interação com 
grupo dificultam a 
privacidade;
• Consentimento dinâ-
mico pelo usuário;
• Transparência e direito 
à explicação;
• Acesso fácil do usuá-
rio e possibilidade de 
elimi nação de dados 
por ele.
Incertezas 
normativas
• Responsabilidade;
• Cenários normativos;
• Regulation-by-design e 
compliance-by-default;
• Agência 
governamental;
• Sistema de seguros;
• Selo de avaliação;
Autonomia • Substituição de de-
cisões humanas por 
segurança;
• Distribuição de res-
ponsabilidade;
• Regras claras para o 
processo de tomada de 
decisão;
• Mecanismo para solu-
ção de controvérsias;
48 Tabela adaptada e ajustada da tabela proposta por Fosch-Villaronga 
(2019), que pode ser integralmente acessível no texto completo.
user
Realce
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
73
• Fundos de 
compensação;
• Responsabilidade 
distribuída
Efeitos no 
trabalho
• Emprego das pessoas 
afetados;
• Destaque na mídia 
para o avanço no uso 
de robôs;
• A substituição de mão 
de obra pouco quali-
ficada por robôs pode 
fortalecer o sentimen-
to anti-imigração.
• Design participativo 
e inclusão de seres 
humanos no processo 
de design;
Interações 
humanas
• Problema da human-
-robot-interaction 
(HRIs) nas configura-
ções de grupo;
• Papel da religião;
• Bias e discriminação.
• Presença humana nos 
ciclos dos processos;
• Design centrado no ser 
humano.
Analisando o problema da interação sobre outra pers-
pectiva, podemos mencionar o trabalho de Peter Asaro 
(2016) em que foram apresentadas importantes reflexões so-
bre designs que envolvam a interação humano-robô (HRIs) 
e os desafios éticos de quando essa interação pode ser por 
meio do emprego de violência ou uso de força letal. Pode-se 
dizer que esta é uma das situações extremas na relação entre 
um humano e o robô (usando tasers, bombas, etc.), atingindo 
o valor mais importante – a vida.
Com o incremento das soluções de reconhecimento 
facial e dados biométricos, processamentos de dados em ge-
ral captados por câmeras, leitores de documentos, radares e 
operações remotas, há um aumento da quantidade e nível de 
autonomia de agentes robóticos, e, sem dúvida, um potencial 
de violação de direitos humanos.
user
Realce
user
Realce
74
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
Sobre os padrões que devem ser adotados para o uso 
da força por robôs, Asaro (2016) esclarece que o primeiro 
deles é de que, sob o ponto de vista da própria existência 
de sistemas robóticos para melhorar a vida das pessoas, só 
seria aceitável a utilização de robôs dessa natureza em casos 
extremos e excepcionais. Se para o âmbito do design, é muito 
mais fácil projetar um robô que tenha precisão no uso de 
uma arma, muito mais desafiador é um sistema que permita 
que só se use a força proporcional e quando extremamente 
necessária. Portanto, não é um problema de design para pre-
cisão (somente), mas para decision-maker extremo.
Assim, são apresentadas questões relevantes para esta 
espécie de sistema49 :
1. A força (por robô) pode ser usada contra um suspeito?
2. Quais avisos seriam necessários antes do uso da força?
3. Que tipo de ameaça um suspeito deve representar 
para autorizar o uso da força?
4. Haveria outras ações a serem tentadas pelo robô an-
tes do uso da força?
5. Quais padrões de uso da força um projetista de-
veria adotar para estabelecer sistemas de restrição 
para seu robô?
49 Essas são possíveis perguntas que podem inclusive ser equivocadas 
para o entendimento dessa questão que é difícil e extrema. A intenção 
no texto é para apontar uma necessidade de discussão, pois o 
problema é real e imediato. O próprio Asaro (2016, p. 59) aponta para 
uma informação angustiante. Para ele, falando da realidade norte-
americana “More distressing, however, is that the established laws 
or policies in the United States at all levels and jurisdictions fail to 
conform to international standards for the use of violent and lethal 
force by police. This includes failures to meet the minimal standards 
established by the United Nations Human Rights Council. These 
failures are as complete and far-reaching as they are distressing. That 
is to say that some states fail to establish any laws or policies regarding 
police use of violent and lethal force, while many others establish far 
lower standards than what is called for by international law, and even 
federal standards fail to meet the minimal international standards”.
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
75
Um segundo padrão seria obtido com posturas que não 
devem ser aplicadas, ou seja, usar a força para obter uma es-
pécie de adequação às orientações legais; o uso para neutrali-
zar indivíduos em fuga, quando não há risco significativo de 
danos; deixar de estabelecer sistemas de registro e documen-
tação da ação e mecanismos de supervisão; ou de autorizar 
o uso como primeiro recurso e não como último e extremo.
Dessa forma, pelo relato de Asaro (2016), os referen-
ciais para uso da força devem seguir os parâmetros estabe-
lecidos pelo United Nations Human Rights Council (UNHRC) e 
pela Anistia Internacional50: 1) Necessidade de evitar danos 
físicos graves ou mortes de pessoas; 2) Deve ser aplicado de 
forma absolutamente discriminada (último recurso); 3) Deve 
ser aplicado de forma proporcional e 4) Deve haver respon-
sabilidade pública. Percebe-se claramente a dificuldade de 
um modelo abstrato padrão para usos absolutamente distin-
tos e com impactos absolutamente desproporcionais no âm-
bito dos direitos.
Hubbard (2014), da Universidade da Carolina, fez um 
trabalho justamente na tentativa de equilibrar as preocupa-
ções associadas aos impactos do uso de robôs com a neces-
50 Ao todo foram listados na Conferência de Havana, 1990, 26 princípios 
básicos para o uso da força e armas de fogo por oficiais policiais. 
Disponível em: https://www.ohchr.org/EN/ProfessionalInterest/
Pages/UseOfForceAndFirearms.aspx. Último acesso em: 26 de janeiro 
de 2020. Destacam-se os princípios: 1. Os governos e as agências 
policiais adotam e implementam regras e regulamentos sobre o uso 
da força e armas de fogo contra pessoas por agentes policiais. No 
desenvolvimento de tais regras e regulamentos, os governos e as 
agências policiais devem manter as questões éticas associadas ao uso 
da força e armas de fogo constantemente sob revisão. E subprincípios 
de: a) Exercer a restrição de tal uso e agir de acordo com a gravidade 
da ofensa e o objetivo legítimo a ser alcançado; (b) Minimizar danos 
e ferimentos, e respeitar e preservar a vida humana; (c) Garantir que 
assistência e assistência médica sejam prestadas a todas as pessoas 
feridas ou afetadas o mais rapidamente possível; d) Garantir que 
parentes ou amigos íntimos da pessoa ferida ou afetada sejam 
notificados o mais cedo possível. (destaquenosso)
user
Realce
76
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
sidade de incentivo à inovação. Inicialmente, afirma que a 
abordagem human-in-the-loop reduz a capacidade dos robôs 
em substituir o humano em tarefas sensíveis, trabalhando 
no plano da assistência humana.
A questão levantada é o preço que a sociedade pode 
pagar pela manutenção de sistemas de inteligência com esse 
modelo de supervisão. Os benefícios perdidos pela alta capa-
cidade cognitiva, acurácia e menor propensão a falhas, justifi-
caria a manutenção de um sistema de responsabilidade mais 
habitual e, portanto, associado à segurança. Hubbard (2014) 
afirma que toda tecnologia apresenta desafios de equilibrar 
os custos com os benefícios. Cita o exemplo dos automóveis. 
Não há debate sobre sua extinção, apesar do alto custo em 
termos de lesões, mortes, trânsito, poluição, dependência de 
combustíveis. O debate é para reduzir os custos, racionali-
zando o uso, melhorando a dependência de combustíveis, 
com matriz mais ecológica, reduzindo emissões. É a perma-
nente busca pelo equilíbrio entre custos e benefícios. Uma 
primeira proposta para uma mudança substancial do siste-
ma de responsabilização seria uma abordagem concentrada 
na preocupação com a vítima. Essa proposta está associada 
a um custo, que seria disseminado e tornaria o processo de 
inovação mais custoso. Outra proposta enfatiza a necessida-
de de inovação e propõe maneiras de reduzir o impacto dos 
custos de responsabilidade. Felizmente se reconhecem as fa-
lhas de ambas as propostas. A primeira assume que o siste-
ma de responsabilidade pode e deve ser usado para garantir 
os custos por danos provocados por robôs, impondo esses 
custos aos envolvidos na inovação (especialmente fabrican-
tes, que poderiam distribuir os custos, tornando-os parte do 
preço do robô). A segunda, por simplesmente admitir que 
um sistema de responsabilidade dificulta indevidamente a 
inovação (HUBBARD, 2014, p. 1865-1866). Com essa visão, 
fica claro que por esse caminho, o debate hipotético já não 
é novo e ocorreu/ocorre em várias áreas (por exemplo, pre-
servação vs. desenvolvimento; direitos vs. investimento e por 
aí vai!) A discussão binária e antagônica entre inovação e 
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
77
responsabilidade ganharia contornos ideológicos. Deve exis-
tir um caminho diferente e ambas as propostas se furtam 
a isso, ou seja, uma proposta alternativa para se buscar um 
equilíbrio adequado (quais os parâmetros para esse concei-
to?) entre segurança e inovação. Não se pode deixar de lado 
a diretriz da necessidade de equilíbrio.
Se for pensado um sistema de compensação, (HUB-
BARD, 2014, p. 1.866-1.867) sugere duas possibilidades: a 
primeira seria um esquema de seguro independentemente 
de culpa; a segunda seria a criação de um sistema combi-
nado com um seguro sem culpa combinado com um fundo 
para pagamento de danos causados. Contudo, isso deman-
daria uma série de respostas que ainda não foram suficiente-
mente abordadas, posto que danos podem estar associados 
não propriamente ao desenvolvimento do sistema, mas na 
sua aplicação, manutenção e as contrapartidas em termos 
de natureza e nível dos benefícios, tipos de danos cobertos 
(por exemplo, não econômicos, dor, sofrimento, etc.), pesso-
as cobertas, administração, etc. Há ainda a possibilidade de 
se circunscrever a responsabilidade apenas ao fabricante/
desenvolvedor, pela dificuldade de se dosar a autonomia 
do sistema com a participação humana ao longo dos ciclos 
e pela maior facilidade de uma espécie de precificação e ava-
liação de viabilidade – igualmente parcial e complexa, posto 
que o uso seria pouco reflexivo com relação às precauções 
contra danos. Se posiciona, no panorama norte-americano, 
no sentido de que:
As propostas para reduzir a responsabilidade se baseiam no 
seguinte argumento de duas partes: (1) robôs sofisticados, 
como veículos autônomos, são desejáveis porque aumen-
tam a segurança e a conveniência; e (2) os custos de respon-
sabilidade devem, portanto, ser reduzidos, a fim de promover 
a inovação desses produtos desejáveis. A segunda parte do 
argumento simplesmente ignora a necessidade de equilibrar 
a inovação com os custos de lesões de uma maneira que 
incentive melhorias de segurança. Além disso, as propostas 
user
Realce
78
COLEÇÃO DIREITO, RACIONALIDADE E INTELIGÊNCIA ARTIFICIAL
para reduzir a responsabilidade não abordam a questão de 
saber se o sistema atual alcança um equilíbrio adequado ou 
se baseiam em críticas conclusivas apoiadas em exemplos e 
anedotas extremos. (HUBBARD, 2014, p. 1.869-1.870)
Nesse cenário complexo e difícil, o que é certo é a ne-
cessidade dos indicativos éticos e normativos de responsabi-
lidade buscarem um equilíbrio entre segurança e inovação, 
de maneira leal, justa e eficiente (HUBARD, 2014).
De forma mais detalhada:
Onde robôs sofisticados estão envolvidos, muitos expres-
saram preocupações sobre a capacidade do sistema 
normativo de alcançar esse equilíbrio e argumentam que 
muitas vítimas não serão compensadas ou que a inovação 
será prejudicada. Baseando-se nesses argumentos, eles 
exigem mudanças fundamentais no sistema atual. Com 
efeito, essas críticas e propostas abandonam a preocupação 
com o equilíbrio e concentram-se na preocupação com 
a compensação ou com a inovação. Como resultado, 
eles mostram pouca preocupação com o outro lado da 
balança. Além disso, esses críticos geralmente confiam 
em expectativas irracionais para punição normativa. Por 
exemplo, aqueles que se preocupam com a indenização às 
vítimas não conseguem avaliar os limites da capacidade 
de um esquema de responsabilidade pela justiça corretiva 
servir como mecanismo de compensação. Críticos aos 
efeitos do sistema punitivo na inovação tendem a ignorar a 
necessidade de equilíbrio ou a necessidade de desenvolver 
uma crítica substantiva da capacidade do sistema atual de 
alcançar um equilíbrio adequado. Como resultado, os críticos 
do impacto dos sistemas regulatórios e de responsabilidade 
falham em não considerar a inovação que ocorreu no 
passado e o atual desenvolvimento rápido da robótica [...]. 
Tais críticas não são suficientes para justificar o abandono 
de um sistema que forneceu e continuará a fornecer um 
equilíbrio justo e eficiente de inovação e segurança em 
máquinas robóticas. (HUBARD, 2014, p. 1.872)
user
Realce
Volume 5 – INTELIGÊNCIA ARTIFICIAL E DIREITO: Convergência Ética e Estratégica
79
Assim como a maioria das pesquisas em IA, que ga-
nharam impulso com a evolução tecnológica mais recente, 
a relação entre ética IA e Direito está provocando muitas in-
certezas. Há uma percepção predominante que a IA é um 
movimento estabelecido e a ampliação do seu uso inevitável. 
Por outro lado, há um aumento do conhecimento sobre os 
usos da IA e seus impactos jurídicos, que vão desde questões 
de direito material, processual filosofia jurídica e ética.
As profissões jurídicas já estão ajustando suas estraté-
gias. Isso é perceptível na atividade das lawtechs, por exem-
plo. Quais são os impactos éticos na atividade das profissões 
jurídicas e do necessário cuidado delas com os direitos hu-
manos é uma pergunta, de partida, inafastável.
A Professora Danielle Keats Citron (University of Ma-
ryland, Yale University e Stanford Law School), em 2014, realizou 
um estudo sobre os problemas do sistema de Financial risk 
scoring e apontou especialmente os problemas da opacidade, 
da arbitrariedade de critérios e de conclusões, associada à 
discricionariedade, da discrepância de impactos, associada a 
uma profunda desigualdade e imprevisibilidade do impacto 
da sua aplicação de correlações e inferência automatizadas. 
Em uma linguagem jurídica, seria aceitável colocar esses 
problemas nos conceitos de transparência, discricionarieda-
de, isonomia, desigualdade, insegurança?
Ao se tratar de ética aplicada a IA (no Direito) na lo-
gística jurisdicional, pode-se também entender

Continue navegando