Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

Prévia do material em texto

Veículos Autônomos
Gabriela Amaral Wiersbicki
Resumo: Veículos autônomos (VAs) podem eliminar acidentes resultantes de erro humano, reduzindo as fatalidades no trânsito em 94%. Para existirem discussões relevantes sobre VAs, é necessário conhecer as habilidades e limitações da tecnologia atual de VAs e que tecnologias podem se concretizar no futuro próximo. Destaca-se a existência de 5 níveis de automação, sendo que tarefas de nível 1, como Cruise Control, já estão presentes em muitos veículos. Problemas de Bonde, que recebem grande atenção dentro e fora do meio acadêmico ao tratar-se de VAs, buscam descobrir que atos são moralmente permissíveis, exigidos ou imprevisíveis, e porque. Porém, sendo os recursos financeiros e humanos limitados, é preciso focar em dilemas relativos às capacidades e limitações atuais de VAs. Muitos dos avanços tecnológicos e legislativos necessários para a viabilidade de adoção em massa de VAs irão exigir a colaboração de profissionais de diferentes setores, como ocorre no método Design Sensível à Valores (DSV), seja pelo debate de cenários-problema ou pelas investigações conceitual, empírica e técnica. O Código de Trânsito Brasileiro não autoriza o uso de veículos autônomos ou semi autônomos, apesar de serem comercializados veículos com Cruise Control. É provável que VAs sejam comercializados no Brasil como produto, assim, litígios envolvendo VAs conduzirão-se pelo Código de Defesa do Consumidor (CDC). No CDC, para haver responsabilidade, é suficiente a existência de dano gerado por defeito no bem ou serviço, inclusive defeito de apresentação, sendo afastada nas hipóteses do art. 12, §3°.
Palavras-chave: VA. TECNOLOGIA. LEI
Introdução
	De Freitas et al. (2020, p.3) chamam atenção ao fato de que, anualmente, 1,25 milhões de pessoas morrem e 20 milhões são feridas em acidentes veiculares ao redor do mundo. Segundo Fleetwood (2017, p. 1), Du et. al (2022, p. 238) e De Freitas et.al (2020, p. 3), veículos autônomos (VAs) têm o potencial de, ao eliminar acidentes devido à erro humano, reduzir as fatalidades no trânsito em 94%, salvando 29.000 vidas por ano apenas nos EUA, conforme dados da National Highway Traffic Safety Administration. Com o surgimento de tal tecnologia, o objetivo deixa de ser a redução de ferimentos e mortes após a colisão e passa a ser a prevenção de colisões.
	Porém, veículos autônomos enfrentarão problemas com implicações técnicas, éticas e legais. Decisões éticas serão polêmicas por dois motivos, primeiramente, valores éticos variam entre indivíduos e sociedades, naturalmente, haverão limites legais a serem impostos, porém, restam diversas questões, como, por exemplo, se um VA deve ser programado conforme valores morais amplamente aceitos, ou permitir que cada indivíduo altere a programação de seu veículo. Em segundo lugar, decisões éticas serão especialmente polêmicas ante situações de decisão forçada, comumente chamadas de problema do bonde, em que todas ações possíveis levam a resultados indesejáveis, o VA deverá decidir quem será salvo ou sacrificado (FLEETWOOD. 2017, p. 3; APPLIN, 2017, p. 2). 
No aspecto legal, há constante debate sobre a quem caberia a responsabilidade por danos causados em acidentes envolvendo VAs, podendo ser o motorista, o comerciante, o fabricante ou o produtor (PINHEIRO et. al, 2019, p. 264). 
Para que seja possível ter discussões relevantes, tanto no meio acadêmico quanto fora desse, é necessário observar qual o real nível de tecnologia atual de VAs e que desenvolvimentos podemos esperar para o futuro próximo (CUNNEN et. al, 2020, p. 60). Como observado por Du et. al (2022, p. 237), há prevalência de crenças incorretas sobre veículos autônomos (VAs), mesmo entre indivíduos com educação de nível superior. Du et. al (2022, p. 237) conduziram um estudo a respeito de 24 crenças incorretas sobre veículos autônomos (VAs), incluindo 3 fatos incorretos e 21 crenças argumentavelmente incorretas. O estudo, realizado pela plataforma online Sojump, contou com 1209 participantes, dos quais 50,1% são mulheres, 80,4% têm entre 20 e 39 anos e 64,5% possuem educação de nível superior. Os resultados apontam que os participantes possuem um nível mediano de crenças incorretas sobre VAs, tendo sido agrupados em “sem conhecimento"(19,2%), “neutro ou positivo” (32,6%), “entusiasta ingênuo” (28,3%) e “cético sóbrio”(19,9%). Ademais, houve consenso sobre 16 crenças, e participantes mais abertos à VAs possuíam mais crenças incorretas, enquanto maior conhecimento sobre VAs resultou em vê-los de forma mais negativa.
É razoável questionar se as discussões, sejam as que envolvem o público geral, seja entre acadêmicos, possuem real aplicação no presente ou no futuro próximo. Quanto às discussões sobre quais indivíduos merecem maior proteção em eventual colisão, questiona-se se essas são aplicáveis ao atual nível da tecnologia de reconhecimento de imagem de VAs. Segundo, questiona-se se a tecnologia de VAs são aceitas em nossa legislação, e se essa se enquadra como serviço ou produto, e quem seria responsável por erros da máquina e seu programa conforme a legislação brasileira. Tendo em mente os resultados da pesquisa realizada por Du et. al (2022), esperamos que ambas perguntas terão respostas pouco satisfatórias.
O método utilizado será a exploratória através de pesquisa bibliográfica de artigos acadêmicos de abordagens variadas, como quantitativa e dedutiva. Serão explorados aspectos técnicos brevemente, pois discussões aprofundadas a esse respeito fogem do escopo deste artigo. Em seguida, será analisada a proposta trazida por problemas do bonde, se sua premissa é válida e aplicável à discussões éticas sobre a programação de VAs, e, caso não seja, ou caso seja insuficiente, são propostas outras metodologias de pesquisa e desenvolvimento.
Tecnologia atual e expectativas para o futuro próximo
É importante apontar a existência de 5 níveis de automação/autonomia, sendo a distinção mais importante a de que nos níveis 1 e 2 um humano monitora o ambiente constantemente, enquanto nos níveis 3 e 4 o motorista pode ceder seu controle sob o sistema em certas situações, e, no nível de automação 5, não há nenhuma necessidade de intervenção humana (FLEETWOOD, 2017, p. 1; DU et. al, 2022 p. 237).
Conforme aponta Vita (2018, p. 213), afirmar que jamais ocorrerão acidentes com veículos autônomos (VAs), é uma esperança tanto prematura quanto exagerada, pois tudo tem um prazo final para o seu bom funcionamento. Cunnen et al. (2020, p. 62), esclarece que, atualmente, veículos autônomos são meramente capazes de distinguir objetos de pessoas, além de tarefas de níveis inferiores na escala de automação, como Cruise control e sistema de frenagem antiderrapante, que já são amplamente utilizadas (SPARROW, 2017, p.208). 
Entre suas limitações, a percepção de ambiente de veículos autônos, apesar de comumente resultar de vários sensores que trabalham em conjunto (KRIEBITZ; MAX; 2022, p. 3), pode ter falhas devido a clima desfavorável, má qualidade da rua e má iluminação. Tais falhas podem resultar em acidentes graves caso não haja supervisão e intervenção humana adequada, como possivelmente ocorreu no acidente envolvendo um Tesla, em 2016, que resultou na morte de Joshua Brown (DUBLJEVIC, 2020, p. 3). Essas limitações trazidas pelo ambiente de locomoção do veículo foram apontadas por indivíduos entrevistados em pesquisa realizada por Dubljevic et. all (2021, p.1-3). A pesquisa, de metodologia qualitativa, foi baseada em entrevistas semi-estruturadas de 9 motoristas de caminhão profissionais (uma mulher e três homens), e 5 motoristas semi-profissionais de Uber e Lyft (todos homens, majoritariamente estudantes suplementando sua renda). Um dos entrevistados disse “Não é coincidência que a Google Waymo está testando a tecnologia deles em Scottsdale. A cidade é como uma rede e é muito quente de dia, quando o Google Waymo é ativo, então tem menos pedestres e ciclistas. Em lugares planejados como rede, é mais fácil implementar VAs”. Outro entrevistado disse que acredita naimplementação de VAs “nos lugares certos. Posso ver eles dirigindo no Texas ou Nebraska, mas não em Colorado ou Wyoming onde há condições em que tudo fica branco” (DUBLJEVIC et. all, 2021, p.5-6).
A respeito da identificação de características de cada indivíduo, diferente do que pode-se entender da maioria das discussões sobre ética e VAs, no futuro próximo, veículos autônomos não serão capazes de definir a idade, gênero ou status social de um indivíduo. Além disso, VAs ainda precisarão de supervisão humana e eventuais intervenções de motoristas humanos (CUNNEN et al., 2020, p. 60). Ademais, como afirma Wiseman (2018, p. 105) e Keeling (2020, p.301) VAs não são capazes de ter certeza se, no caso de uma colisão, quantos indivíduos serão envolvidos e se alguém, ou quem, irá morrer. Veículos deverão decidir rapidamente, com informações insuficientes, o que fazer em situações não previstas por seus programadores. 
Como apontado por Umbrello (2019, p. 313), uma das maiores dificuldades a serem enfrentadas será no design e implementação de valores morais em veículos autônomos (VAs), em parte pela impossibilidade de entender sua tomada de decisões. Dentre os demais inúmeros desafios técnicos para o desenvolvimento de veículos autônomos, Gerdes et. al (2019, p. 41) apresenta-nos um que já faz parte do nosso mundo. Para um VA estabelecer uma rota, é comum o uso de algoritmos que busquem o caminho mais curto. Porém, dentre outros problemas, tal caminho pode não ser o mais seguro, seja devido às más condições das ruas quanto ao nível de crimes.
Gerdes et. al (2019, p. 42) adiciona que, para respeitar leis locais e garantir a segurança do pedestre e passageiro, o carro deverá prever, por ex, em que momento uma pessoa andando na calçada irá chegar à faixa de segurança e se de fato têm intenção de atravessar a rua. Porém, como explica Himmelreich (2018, p. 678), para veículos autônomos (VAs), decisões, mesmo em situações mundanas, são desafiadoras por dois motivos. Primeiramente, humanos tomam decisões intuitivamente, porém essa "intuição" é na verdade a avaliação de diversos fatores contextuais, culturais e ambientais, o que é difícil de programar em um algoritmo. Isso é chamado de Desafio da especificidade, ou Paradoxo de Moravec: algo fácil para humanos e difícil para sistemas autônomos. Além disso, há o problema de escala, pois a decisão de como um VA irá agir em certas situações será tomada por um programa comum a vários veículos, tornando esse um problema de larga escala.
Himmelreich (2018, p. 679) afirma que a segurança de VAs pode ser elevada tornando públicas propostas de soluções com resultados positivos, permitindo que fabricantes e desenvolvedores adotem estratégias uns dos outros. Porém, a privacidade dos dados de usuários ficará em risco, e seria necessário abrir mão de direitos sob a propriedade intelectual e a possibilidade de diferenciação entre produtos. Além desses, Himmelreich (2018, p. 680) aponta que a mobilidade, impacto ambiental e planejamento urbano podem conflitar com a segurança. Por mobilidade entende-se a eficiência do tráfego; em impacto ambiental inclui-se a emissão de gases estufa, barulho causado pelo trânsito e desgaste de materiais; no tocante ao planejamento urbano, surgirão questões como a necessidade de áreas dedicadas à passagem de pedestres. 
Um avanço que pode ser implementado em breve é o compartilhamento de dados a respeito do comportamento de veículos autônomos entre si (SPARROW, 2017, p. 211). Gerdes et. al (2019, p. 41) sugere o uso de pelotões de VAs em autoestradas, que podem ajudar na economia de combustível e diminuição da probabilidade de colisões. Cunnen et. al. (2020, p. 60) acredita que futuramente será possível que VAs diferenciem adultos de crianças e, num estágio avançado de desenvolvimento, possuam tecnologia de reconhecimento facial, o que permitiria a diferenciação, por exemplo, de um filantropo e um criminoso.
Outra observação relevante a ser feita é que uma frota constituída apenas por veículos autônomos não surgirá rapidamente, sendo esperada a existência de uma frota mista por um período de tempo significativo, com veículos tradicionais, como carros, motos e mesmo bicicletas, utilizando as ruas em conjunto com veículos autônomos (CUNNEN et al. 2020, p. 60; DUBLJEVIC et. al, 2021, p. 3; SPARROW, 2017, p. 211). Tal demora se deve em parte à maioria das pessoas esperar uma década para substituir seu carro, e em parte pois pode haver desconfiança sobre a nova tecnologia. Alguns problemas que já se espera observar em frotas mistas, como pedestres e motoristas humanos aproveitarem-se indevidamente da programação de veículos autônomos, ademais, veículos autônomos não podem prever certos comportamentos humanos, enquanto o comportamento de VAs é previsível e provavelmente será compartilhado entre eles (SPARROW, 2017, p. 211; HIMMELREICH, 2018, p. 678).
Acredita-se que, para que VAs sejam amplamente adotados, deva ser gradualmente elevado o nível de autonomia de veículos, mantendo a supervisão humana. (SPARROW, 2017, p.208). Ainda assim, vários dilemas serão enfrentados, temos como exemplo um dilema observado em estudo recente, onde indivíduos demonstraram querer que os veículos decidam salvar o maior número de pessoas possível, mas ao decidir pela compra de um veículo, querem que esse proteja seus passageiros. Assim, caso seja utilizado programa que não dê preferência aos passageiros, é possível que a adoção de veículos autônomos seja baixa, e não se concretize a possibilidade de redução de acidentes de trânsito pelo uso de VAs. (FLEETWOOD, 2017, p. 4; ETIENNE 2020, p. 3). Tendo isso em mente, é razoável considerar preferível que o programa opte por resguardar a segurança de seus passageiros, para que haja adoção em massa da tecnologia e redução substancial de acidentes de trânsito.
Problemas do Bonde
O tema que mais recebe atenção quando se trata de veículos autônomos é o de dilemas morais, frequentemente abordados através de Problemas de Bonde. Criados como um experimento mental filosófico, Problemas do Bonde propõem um cenário onde um Bonde sem freios se dirige à uma bifurcação de trilhos. Se o Bonde continuar em sua rota, irá indubitavelmente matar cinco pessoas. Você está ao lado de uma alavanca, podendo intervir e divergir o Bonde para outro caminho, onde apenas uma pessoa morrerá. (GERDES et. al, 2019, p. 44; APPLIN, 2017, p. 1). Já foi demonstrado que variações de Problemas do Bonde podem prover sugestões profundas sobre como o cérebro humano analisa dilemas éticos (GERDES et. al, 2019, p. 44).
Segundo Keeling (2020, p. 296), Problemas de Bonde pressupõem um modelo de moralidade em que atos são permissíveis, exigidos ou imprevisíveis, o que depende de certas propriedades relevantes. O objetivo de debater Problemas de Bonde é determinar como certas propriedades de um ato fazem diferença, na esperança de que as relações estabelecidas sejam relevantes da mesma forma em casos reais mais complexos.
Keeling (2020, p. 297) afirma que alguns autores acreditam que apenas o dano causado é relevante. Porém, pede que observemos dois dos Problemas de Bonde mais tradicionais: num, o condutor de um bonde sem freios pode salvar 5 trabalhadores ao mudar de rota e sacrificar 1 trabalhador; noutro problema, um médico pode salvar 5 pacientes doentes ao sacrificar 1 paciente saudável. A maioria das pessoas tem sua intuição apontando para respostas diferentes em cada problema, sugerindo que além do nível de dano, há outros elementos relevantes para a permissibilidade moral de um ato. Aparentemente, se o dano é feito ou se é permitido que ele ocorra, possui relevância moral.
Experimento da Máquina Moral
Problemas do bonde têm sido amplamente utilizados para determinar os valores morais de indivíduos, como, por exemplo, no Moral Machine Experiment (“Experimento da Máquina Moral”, EMM), realizado pelo MIT² em conjunto com outras instituições, que conta com 39,6 milhões de participantes de 233 países (MORDUE, 2020, p. 180). Conforme explica Mordue (2020, p. 180) eGill (2020, p. 2), os pesquisadores visavam iniciar uma discussão global para a população expressar suas preferências morais para empresas e políticos cujo trabalho venha a envolver VAs. O EMM é um questionário online, onde problemas do bonde eram apresentados, tendo como estrutura básica a necessidade de escolher sacrificar o passageiro do VA ou um dentre dois grupos de pedestres ou animais, sendo impossível frear. Cada cenário contava com grupos de pedestres com características diferentes, podendo o grupo ser maior ou menor, composto por diferentes combinações de pessoas de diferentes gênero, idade, valor social, saúde, cruzando a rua durante sinal verde ou vermelho ou como sendo mulheres grávidas. Conforme afirma Bigman (2020, p. 1), o resultado do EMM sugere que seus participantes querem que seus VAs tratem pessoas de maneira diferente conforme suas características.
Críticas aos Problemas do Bonde e ao Experimento da Máquina Moral
Alguns acadêmicos defendem o debate de Problemas de Bonde, como Gill (2021, p. 2), que apresenta dois estudos realizados pela Wilfrid Laurier University, segundo os quais o público considera que problemas éticos como os apresentados pelo EMM são mais relevantes que problemas técnicos, legais e problemas éticos relativos à situações plausíveis. No primeiro estudo, os participantes foram informados sobre os benefícios de veículos autônomos, assim como desafios técnicos, legais e éticos. Então eles avaliaram a importância dos benefícios e de superar os desafios expostos. No segundo estudo os participantes avaliaram o risco dos problemas apresentados no primeiro estudo. (GILL, 2021, p. 3). Porém, as críticas aos Problemas do Bonde e o Experimento da Máquina Moral tem se tornado mais comuns e mais aprofundadas, apontando ambos como distrações de pouco uso para o desenvolvimento de veículos autônomos.
Bigman (2020, p. 6) e Gill (2020, p. 2) chamam atenção ao fato de que o experimento não permite aos participantes deixar claro o valor que atribuem para cada característica. Ademais, um experimento não publicado dos autores do EMM usa um método diferente. Neste segundo estudo, 585.531 participantes, após realizar o questionário principal, puderam expressar de forma direta suas preferências morais considerando apenas uma característica (como idade). Esse estudo teve como resultado maior preferência por tratamento igualitário.
Bigman (2020, p. 1) também cita outros três estudos, com um total de 5.016 participantes de diversas idades, gêneros e etnias, demonstram que as pessoas têm grande preferência que veículos autônomos tratem pessoas diferentes de forma igualitária em situações com risco de morte. A única exceção é a preferência por preservar a vida daqueles que obedecem a lei. 
Etienne (2020, p. 4) chama atenção ao fato de Awad e dois outros autores do do Experimento da Máquina Moral (MME) terem publicado outro artigo, apenas um mês após a publicação dos resultados do MME, onde apresentam um sistema para tomada de decisões éticas baseado em votação (VBS), algo bastante diferente do objetivo inicialmente alegado pelos pesquisadores, de iniciar uma discussão global sobre preferências morais relativas à VAs (MORDUE, 2020, p. 180).
em tecnologia e VAs, que Du et. al (2022, p. 237) demonstrou possuir mais crenças falsas sobre VAs, e que serão mais provavelmente passageiros de VAs, ao invés de pedestres.
Etienne (2020, p. 5) argumenta que o projeto de construir um sistema para tomada de decisões éticas baseado em teorias de escolhas sociais computacionais, no qual VBS é baseado, é falacioso, assim como perigoso para as democracias. Primeiro, nenhum algoritmo existente se enquadra na definição de agente moral, que é um sujeito autônomo com uma ideia de bom e com livre arbítrio, que é capaz de justificar suas escolhas e responsável pelas consequências de suas ações. Ademais, os autores do EMM não buscam adequação moral ou justiça, mas a decisão mais amplamente aceita pela sociedade, baseada em sujeitos que não são educados em ética nem mesmo instigados a pensar a respeito dos dilemas propostos. Ademais, os participantes do experimento não foram informados que os resultados poderiam ser usados na programação de VAs reais.
Etienne (2020, p. 4), dentre outros problemas, aponta o fato de que os participantes se “auto-selecionam”, assim, mesmo considerando que o estudo possui participantes de diferentes culturas, esses ainda são majoritariamente da parte da sociedade que é interessada 
	Cunnen et al. (2020, p. 60), afirma que é preciso dar mais atenção à dilemas morais que envolvam as capacidades e limitações atuais de VAs. Uma das críticas à Problemas de Bonde mais comuns é que tais problemas não ocorreriam no mundo real, pelas situações propostas serem esdrúxulas, ou por que um VA com funcionamento correto não se envolveria em um situação de Problema do Bonde, e, caso se envolvesse, não teria controle suficiente para fazer uma escolha sobre distribuição de danos. (KEELING, 2020, p. 3) Ademais, as decisões de um VA não são feitas num momento específico com consequências claras, mas a partir de uma série de decisões tomadas sobre a velocidade e caminho desejados num ambiente que se altera constantemente. (GERDES et. al, 2019, p. 44)
Keeling (2020, p. 298) também aponta que Problemas do Bonde excluem informações relevantes, como quem é culpado pela colisão, mas afirma que a relevância de um aspecto não exclui a relevância de outro. Também critica-se que em Problemas do Bonde as consequências de cada ação são claras, enquanto na realidade cada ação pode ter inúmeras consequências. (KEELING, 2020, p. 299).
Outra objeção à Problemas de Bonde aponta que esses usam a abordagem “top-down”³, enquanto os principais métodos de desenvolvimento de VAs possuem abordagem oposta, “bottom-up”4. Entretanto existem métodos, como algoritmos de otimização de colisão, que usam a abordagem “top-down”.
Por fim, Keeling (2020, p. 2) e Himmelreich (2018, p. 8) afirmam que os Problemas do Bonde buscam uma resposta moral, enquanto a moralidade de VAs exige uma resposta social e política . Mas é possível afirmar que a resposta não é apenas social e política, mas que possui aspectos sociais e políticos.
Inteligência Artificial e valores morais
Um método capaz de auxiliar nessa tarefa é o Value Sensitive Design (Design Sensível à Valores, DSV). O método DSV não tem uma única estrutura, porém, sempre envolve diversos interessados na tecnologia, como usuários, políticos, guardas de trânsito e polícia rodoviária (GERDES et. al, 2019, p. 45), pois nenhum interessado terá todo o conhecimento preciso para resolver todos problemas possíveis sozinho (DE FREITAS et. al, 2020, p. 3).
No método utilizado por Gerdes et. al (2019, p. 45), são reunidos diversos interessados em VAs para discutir cenários-problema, para que valores e tensões possam emergir. A chave para discussões eficientes é baseá-las em um cenário específico o suficiente para ser entendido por participantes de áreas diferentes. Após a discussão, é possível resolver os problemas observados de várias formas, como ao priorizar um valor, buscar um ponto de equilíbrio entre valores ou alterar espaços urbanos e leis. É então desenvolvida a tecnologia em volta dos valores e tensões identificadas.
	Já o método DSV descrito por Umbrello (2019, p. 320) é dividido em 3 fases, ou investigações: conceitual, empírica e técnica. A investigação conceitual busca responder às seguintes questões: Quem são os interessados? Quais são os valores em questão? Onde certos parâmetros começam e terminam? Quando algo é inviável? Por que um design é aceito e outro rejeitado? A segunda fase, investigação empírica, visa utilizar ferramentas quantitativas e qualitativas para determinar se os valores definidos podem suprir as necessidades dos interessados. Se o design de uma tecnologia não se enquadra nas definições dos valores em questão, retoma-se a investigação conceitual. Por fim, a investigação técnica analisa as capacidades e limitações técnicas para aplicação dos valores morais relevantes,ao mesmo tempo que busca limitar quaisquer problemas. As 3 fases irão interagir até que estejam harmonizadas.
Responsabilidade legal
Um assunto de constante debate é a quem caberia a responsabilidade por danos causados em acidentes envolvendo VAs. Devemos questionar, por exemplo, se as decisões tomadas por veículos autônomos devem ser tratadas da mesma forma que decisões humanas, pois motoristas que tomem decisões questionáveis, desde que razoavelmente prudentes e tomadas em situações extenuantes possuem proteção legal (FLEETWOOD, 2017, p. 1; ETIENNE 2020, p2).
Himmelreich (2018, p. 681) e Wu (2020, p. 12) chamam atenção ao fato de que, se fabricantes e desenvolvedores de VAs forem responsabilizados pelos resultados de decisões tomadas por seus VAs, mesmo sem a ocorrência de falhas técnicas, isso irá afetar a programação de VAs, possivelmente de forma negativa. 
Himmelreich (2018, p. 681) traz como ex. a lei penal dos EUA. Indenizações tem relação com a renda perdida pelos dependentes da vítima do delito, assim, fabricantes e desenvolvedores de VAs podem sentir-se incentivados a ajustar o comportamento de um VA de acordo com a renda média de cada região, fazendo-o dirigir com mais ou menos cautela em cada área. Wu (2020, p. 12) traz outro exemplo, também com base na legislação dos EUA. Considerando um cenário em que o VA deve escolher entre colidir com um grupo de pessoas ou desviar sua rota e colidir com um único indivíduo, a melhor escolha para o fabricante evitar ser responsabilizado legalmente é programar o VA para que evite colidir com ambos o grupo e o único indivíduo, mesmo que isso aumente o risco para todas possíveis vítimas. 
Para Wu (2020, p. 12) o único meio de fabricantes se imunizarem da responsabilidade legal por acidentes é mudar a lei. Uma lei que traga tal imunidade pode atestar que fabricantes de VA não serão responsáveis por implementar designs que tomem decisões com expectativa razoável de salvar vidas. Ademais, a lei pode exigir uma certificação ou auditoria sobre o programa do VA, realizada por terceiro.
VAs e a lei brasileira
Conforme apontado por Efing e Araújo (2019, p. 84) e Pirani e Oliveira (2021, p. 119), o Código de Trânsito Brasileiro não autoriza o uso de veículos autônomos, pois se reporta à condução humana, não prevendo condução autônoma ou semi autônoma. Ademais, a convenção de Viena sobre o trânsito viário, que é parte da legislação brasileira, traz em seu artigo 8º que todo o veículo em movimento deverá ter um condutor, com qualidades físicas e psíquicas necessárias para dirigir (UNTC, 1968). Porém, conforme aponta Pirani e Oliveira (2021, p. 119), na falta de legislação específica, deve ser considerado o art 4° da LINDB, segundo o qual “Quando a lei for omissa, o juiz decidirá o caso de acordo com a analogia, os costumes e os princípios gerais de direito.”.
Pinheiro et. al (2019, p. 265) crê que os softwares de VAs serão comercializados no Brasil como produto, assim como o sistema de freios ABS (que é um software). De acordo com a Lei no 9.609/1998, ao desenvolver um software o programador está prestando um serviço para a empresa fabricante desse software, que é a responsável por colocar esse produto no mercado. Assim, litígios envolvendo VAs seriam analisados conforme o Código de Defesa do Consumidor (CDC).
No CDC, a responsabilidade é objetiva, e está fundada na obrigação do fabricante/fornecedor de bens ou serviços de garantir a segurança desses. Efing e Araújo (2019, p. 86) e Pinheiros et. al (2019, p.262-264) lembram que nosso ordenamento adota a Teoria do Risco da Atividade, que estabelece que aquele que explora atividade econômica deve arcar com os danos oriundos do bem ou serviço prestado. Ademais, considerando que o conhecimento técnico relativo aos VAs é de titularidade exclusiva de seus desenvolvedores, eles ficam em posição de superioridade técnica em relação aos consumidores, que ficam em posição de hipossuficiência técnica, dentre outras. 
O Código de Defesa do Consumidor, conforme aponta Vita (2018, p. 223), Efing (2019, p. 5) e Pinheiros et. al (2019, p.262), descarta a necessidade de comprovar culpa ou dolo para a configuração da responsabilidade, sendo suficiente a existência de dano gerado por defeito no bem ou serviço (CDC, art. 12 à 17). 
Como explica Pinheiro et. al (2019, p. 262), o produto é defeituoso quando não oferece a segurança que dele legitimamente se espera (art. 12, §1°, CDC), devendo cada caso concreto ser analisado pelo juiz (PINHEIRO et. al, 2019, p. 263). O defeito pode ser de criação (projeto falho ou falta/insuficiência de testes), de produção (fabricação, construção/montagem) ou de apresentação (informações insuficientes ou inadequadas) (PINHEIRO et. al, 2019, p. 262; EFING; ARAÚJO, 2019, p. 86), e, como o CDC deixa explícito em seu art. 8°, fornecedores possuem obrigação de dar as informações necessárias e adequadas a respeito dos riscos à saúde ou segurança trazidos pelo bem, desde que sejam normais e previsíveis em decorrência de sua natureza. Pinheiro et. al (2019, p. 263) adiciona que um dos critérios de definição do defeito é a incapacidade do fabricante em eliminar os riscos do produto sem prejudicar sua utilidade. Porém, para a caracterização de defeito também é necessário laudo de especialista, explicando porque o projeto é defeituoso e provando que um projeto alternativo poderia ter evitado o acidente.
Vita (2018, p. 223) e Pinheiros et. al (2019, p.265) ainda destaca algumas excludentes da responsabilidade trazidas pelo CDC: a não colocação do produto no mercado, a inexistência do defeito, a culpa exclusiva da vítima ou de terceiro (art. 12, §3°, CDC). Assim, apesar de ser esperada a aplicação do CDC para litígios envolvendo VAs, Vita (2018, p. 222) considera ser possível a responsabilização civil objetiva, pois, por ex., a utilização de VAs sem o devido conhecimento de seus recursos tecnológicos configura imperícia (VITA, 2018, p. 226). Não há previsão do caso fortuito e da força maior, mas há forte amparo doutrinário e jurisprudencial do STJ para a aplicabilidade desses institutos. Por fim, Pinheiro et. al (2019, p. 266) afirma que uma defesa chave em litígios envolvendo VAs será o risco de desenvolvimento (aquele cientificamente não identificável no momento do lançamento do produto), porém, o CDC não inclui tal risco como excludente da responsabilidade do fornecedor (PINHEIROS et. al, 2019, p.267).
Duas outras perguntas frequentes referem-se a qual agente participante da comercialização seria responsabilizado, e se terceiros envolvidos em acidentes com VAs terão alguma proteção legal. Quanto à primeira pergunta, Pinheiro et. al (2019, p. 264), aponta que o CDC, ao tratar da responsabilidade pelo fato do produto (art. 12, CDC) responsabiliza apenas o fabricante, o produtor, o construtor e o importador. O comerciante só será responsabilizado subsidiariamente (art. 13, CDC), quando o fabricante, o produtor, o construtor e o importador não puderem ser identificados. Isso se deve ao fato de, nas relações de consumo em massa, o comerciante não ter controle significativo sobre a segurança e qualidade das mercadorias. A respeito da segunta pergunta, Efing e Araújo (2019, p. 86) lembram que, de acordo com o art. 17 do CDC, "Equiparam-se aos consumidores todas as vítimas do evento”, assim, não-passageiros do VA envolvidos num acidente também terão seus direitos amparados na legislação brasileira.
Quanto à expectativas de inovação legislativa, Pirani e Oliveira (2021, p. 120) trazem que, em 30 de novembro de 2017, o Conselho Nacional de Trânsito (CONTRAN), trouxe a Resolução nº 717, onde, devido a evolução tecnológica dos veículos, estabeleceu um cronograma de estudos técnicos e a proposta de regulamentação para itens de segurança veicular. Ademais, em dezembro de 2018, a Lei nº13.755, chamada “Rota de 2030”, visa incentivar pesquisas e desenvolvimento em todo o setor automotivo nacional.
Considerações finais
	
*resultado* Respondendo os questionamentos feitos inicialmente, concluímos que grande parte das discussõesa respeito da proteção de indivíduos vulneráveis, no caso de uma colisão, exige que o veículo autônomo seja capaz de identificar o gênero e a idade do indivíduo. Porém, como visto, tal tecnologia não deve ser implementada em VAs nos próximos anos, tornando tal discussão inaplicável no presente e no futuro próximo. A tecnologia de reconhecimento de imagem presente em VAs atualmente é apenas capaz de identificar seres humanos de forma genérica, tornando viável apenas 2 escolhas: escolher entre colidir com mais ou menos indivíduos, e escolher entre proteger seu(s) passageiro(s) ou os demais envolvidos. 
Quanto à legislação brasileira, programas de direção com alto nível de autonomia carecem de autorização expressa, e a reforma de nossa legislação para a acomodação de veículos autônomos é um tema que carece de pesquisas. Outro fator do qual muito pouco se fala da estrutura urbana necessária à implementação de VAs. Passando à classificação de VAs e seu programa como serviço ou produto, assim como à quem cabe a responsabilidade por defeitos nesses, as discussões se mostraram produtivas. Como visto, no ordenamento brasileiro podemos esperar que ambos sejam comercializados como produtos, existindo legislação possivelmente aplicável à esses, devido ao art 4° da LINDB, segundo o qual na falta de ditames legais específicos, o juiz deve utilizar a analogia, os costumes e os princípios gerais de direito. 
Percebemos claramente que a maioria das discussões não levam em consideração a atual tecnologia de veículos autônomos, sendo possível que questões iminentes recebam respostas apressadas e falhas pela falta de pesquisa. 
Para que existam discussões relevantes sobre veículos autônomos (VAs) aplicáveis no presente ou futuro próximo, é necessário que o público, seja acadêmico ou não, tenha conhecimento sobre as habilidades e limitações da tecnologia atual de VAs e que desenvolvimentos tecnológicos podemos esperar para o futuro próximo. Deve-se focar os recursos disponíveis para pesquisas em problemas já existentes ou iminentes, e que possam ser ao mesmo parcialmente resolvidos com a tecnologia disponível ou que esteja em estado avançado de desenvolvimento. Não é preciso abandonar outras discussões, mas não é razoável focar a maioria dos recursos existentes nessas, pois recursos, sejam financeiros ou humanos, são limitados.
	A respeito da velocidade de adoção de Veículos Autônomos, a depender do nível de autonomia a ser considerado, fica claro a possibilidade de se passar mais uma década para que esses se tornem maioria nas frotas pelo mundo. Para a viabilidade de adoção em massa serão necessários não apenas avanços tecnológicos, mas mudanças culturais e legislativas. 
Muitos dos avanços tecnológicos e legislativos necessários irão exigir a colaboração de profissionais de diferentes setores, como ocorre no método Value Sensitive Design (Design Sensível à Valores, DSV), seja através do debate de cenários-problema ou pelas investigações conceitual, empírica e técnica.
Referências	
APPLIN, Sally. Autonomous Vehicle Ethics - Stock or custom-. IEEE Consumer Eletronics Magazine. ano 17, n° 10.1109, 14 jun. 2017
FLEETWOOD, Janet. Public Health, Ethics, and Autonomous Vehicles. AJPH Law and Ethics, Public Health Ethics. v 107, n. 4, p 532-538, abr. 2017.
SPARROW, Robert; HOWARD, Mark. When human beings are like drunk robots- Driverless vehicles, ethics, and the future of transport. Elsevier. Department of Philosophy, Monash University, Victoria 3800. Austrália, 2017. p 206-215, 9 maio 2017. DOI: https://doi.org/10.1016/j.trc.2017.04.014.
HIMMELREICH, Johannes. Never Mind the Trolley: The Ethics of Autonomous Vehicles in Mundane Situations. Ethic Theory Moral Prac, p 669-684, 17 maio 2018, DOI: https://doi.org/10.1007/s10677-018-9896-4
WISEMAN, Yair; GRINBERG, Ilan. The Trolley Problem Version of Autonomous Vehicles. The Open Transportation Journal, vol. 12, 2018, p 105-113, DOI: 10.2174/18744478018120100105
VITA, Jonathan Barros; SILVA, Tiago Nunes. A RESPONSABILIDADE CIVIL DECORRENTE DE DANOS CAUSADOS PELOS VEÍCULOS AUTÔNOMOS NO BRASIL, Meritum - Revista de Direito da Universidade FUMEC, vol. 13, n. 1, p. 212-227, 2018.
EFING, Antônio Carlos; ARAÚJO, Jailson de Souza. O USO DOS CARROS AUTÔNOMOS, SEUS RISCOS E PERIGOS JURÍDICOS. Revista de Direito do Consumidor, vol. 126, p 81 - 102, dez. 2019. 
GERDES, J. Christian; THORNTON, Sarah M.; MILLAR, Jason. Designing Automated Vehicles Around Human Values. Lecture Notes in Mobility, Road Vehicle Automation 6, 2019, p 39–48, 2019. DOI: https://doi.org/10.1007/978-3-030-22933-7_5
MORDUE, Greig; YEUNG, Anders; WU, Fan. The looming challenges of regulating high level autonomous vehicles. Transportation Research Part A: Policy and Practice. Vol. 132, p. 174-187, 27 nov. 2019. DOI: https://doi.org/10.1016/j.tra.2019.11.007
PINHEIRO, Guilherme Pereira; BORGES, Maria Ruth; DE MELLO, Flávio Luis. DANOS ENVOLVENDO VEÍCULOS AUTÔNOMOS E A RESPONSABILIDADE CIVIL DO FORNECEDOR. Revista Brasileira de Direito Civil – RBDCivil; v. 21, p. 247-267, set. 2019. DOI: 10.33242/rbdc.2019.03.011
WU, Stephen S. Autonomous vehicles, trolley problems, and the law. Ethics and Information Technology. vol. 22, p. 1 - 13, 24 dez. 2019. DOI: 22:1–13
https://doi.org/10.1007/s10676-019-09506-1
BIGMAN, Yochanan E.; GRAY, Kurt. Life and death decisions of autonomous vehicles. Nature, vol. 579, 4 mar. 2020. DOI: https://doi.org/10.1038/s41586-018-0637-6
CUNNEEN, Martin; MULLINS, Martin; MURPHY, Finbarr; SHANNNON, Darren; FURXHI, Irini; RYAN, Cian. Autonomous Vehicles and Avoiding the Trolley
(Dilemma): Vehicle Perception, Classification, and the Challenges of Framing Decision Ethics, CYBERNETICS AND SYSTEMS: AN INTERNATIONAL JOURNAL, vol. 51, n°. 1, p 59–80, 2020; DOI: https://doi.org/10.1080/01969722.2019.1660541
ETIENNE, Hubert. When AI Ethics Goes Astray: A Case Study of Autonomous Vehicles. SAGE Journals, Social Science Computer Review. p. 1 - 11; 28 fev. 2020, DOI: https://doi.org/10.1177/0894439320906508 
DE FREITAS, Julian; et al. From Driverless Dilemmas to More Practical Ethics Tests for Autonomous Vehicles. Proceeding of the National Academy of Sciences of the United States of America. 16 mar. 2021, DOI: https://doi.org/10.1073/pnas.2010202118
KEELING, Geoff. Why Trolley Problems Matter for the Ethics of Automated
Vehicles. Science and Engineering Ethics, vol. 26, p 293 - 307, 4 maio 2020. DOI: https://doi.org/10.1007/s11948-019-00096-1
GILL, Tripat. How Important Are Ethical Dilemmas to Potential Adopters of Autonomous Vehicles?.SSRN Electronic Journal, 28 fev. 2021, DOI:10.2139/ssrn.3756597
UMBRELLO, Steven; YAMPOLSKIY, Roman V. Designing AI for Explainability and Verifiability: A Value Sensitive Design Approach to Avoid Artificial Stupidity in Autonomous Vehicles. International Journal of Social Robotics, vol 14, p. 313 - 322, 2019, DOI: https://doi.org/10.1007/s12369-021-00790-w
DUBLJEVIC, Veljko; et. al. Toward a Rational and Ethical Sociotechnical System of Autonomous Vehicles: A Novel Application of Multi-Criteria Decision Analysis. PLoS ONE. ago. 2021. DOI: 10.1371/journal.pone.0256224
DU, Manqing, et. al. Rumors in the air? Exploring public misconceptions about
automated vehicles. Transportation Research Part A: Policy and Practice, vol. 156, p. 237-252, 2022. DOI: https://doi.org/10.1016/j.tra.2022.01.003
KRIEBITZ, Alexander; MAX, Rafael; LÜTGE, Christoph. The German Act on Autonomous Driving: Why Ethics Still Matters, Philosophy & Technology, vol. 35, 2022.
PIRANI, Mateus Catalani; OLIVEIRA, Matheus Pinto. A reforma do código de trânsito brasileiro e a chegada de veículos autônomos: a previsão do “condutor virtual”. Leopoldianum : A PRODUÇÃO DO SABER v. 47, n. 131, p. 111 - 129, 2021.
FONTES ADICIONAIS (EM CASO DE ATUALIZAÇÃO DO ARTIGO)
https://www.youtube.com/watch?v=6Kf3I_OyDlI&list=WL&index=103

Mais conteúdos dessa disciplina