Buscar

Lista 8

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 7 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 7 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Inteligência Artificial - Lista 8
Grupo:
● Breno Lopes do Carmo
● João Pedro Barroso da Silva Neto
● Lucas Carvalho da Luz
● Lucas Vinícius dos Santos Gonçalves Coelho
● Vinícius Henrique Giovanini
Professora:
● Cristiane Neri Nobre
Questão 01
Considere as seguintes afirmações sobre redes neurais artificiais:
I. Um perceptron elementar só computa funções linearmente separáveis.
II. Não aceitam valores numéricos como entrada.
III. O "conhecimento" é representado principalmente através do peso das conexões.
São corretas:
(a) Apenas III
(b) Apenas I e II
(c) Apenas I e III
(d) Apenas II e III
(e) I, II e III
Questão 2
Considere as funções booleanas abaixo:
I. p ^ q (conjunção)
II. p ↔ q (equivalência)
III. p → q (implicação)
Quais destas funções podem ser implementadas por um perceptron elementar?
a) Somente I;
b) Somente I e II;
c) Somente I e III;
d) Somente II e III;
e) I, II e III.
Questão 03
Dado um perceptron simples de duas entradas e um bias, cujos pesos são w1 =0.5, w2 =
0.4 e w0 = - 0.3,
respectivamente, assinalar a resposta correta:
(a) o perceptron realiza a função NOR
(b) o perceptron realiza a função AND
(c) o perceptron realiza a função OR
(d) o perceptron realiza a função XOR
(e) nenhuma das alternativas
RESP:
0 * 0.5 + 0 * 0.4 + 1* -0.3 = -0.3 = 0
0 * 0.5 + 1 * 0.4 + 1* -0.3 = 0.4 - 0.3 = 0.1 = 1
1 * 0.5 + 0 * 0.4 + 1* -0.3 = 0.5 - 0.3 = 0.2 = 1
1 * 0.5 + 1 * 0.4 + 1* -0.3 = 0.5 + 0.4 - 0.3 = 0.6 = 1
Porta OR
Questão 04
Considerando a base de dados (breast-cancer.csv) e utilizando-se o notebook “RNA.ipynb”
(faça as adaptações necessárias) que está no CANVAS, pede-se:
1) Faça os pré-processamentos necessários para esta base: conversão de nominal para
numérico, identificação de outlier, normalização, balanceamento, eliminação de
redundância, dentre outros
2) Avalie o desempenho do modelo a partir de diferentes topologias: números de camadas e
neurônios. Use diferentes heurísticas para isso, conforme discutido em sala
3) Avalie o parâmetro ‘taxa de aprendizado’ e veja sua relação com a quantidade de
épocas.
4) Caso julgue necessário, investigue outros hiperparâmetros necessários para a rede
neural a fim de melhorar os resultados obtidos. Compare os resultados obtidos.
5) Ajuste os hiperparâmetros automaticamente, usando métodos como Grid Search,
CVParameterSelection e MultiSearch
RESP:
Após realizar a conversão de nominal para numérico, identificação de outliers, eliminação
de redundância e balanceamento, utilizamos o Grid Search para encontrar os melhores
parâmetros.
Figura 1 - testes dos parâmetros
Mais parâmetros podem ser encontrados em:
https://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPClassifier.html?
highlight=mlpclassifier#sklearn.neural_network.MLPClassifier
Primeiramente testamos vários valores de taxa de aprendizado, e foi perceptível que a
quantidade de épocas / iterações foi aumentando, até chegar a uma quantidade que já não
fazia tanta diferença para o resultado final.
Com os parâmetros mostrados na figura 2, as iterações variaram entre 69 e 134 (loss
entorno de 0.56589960), e alterando o activation para ‘relu’ as iterações foram de 176 a 309
(loss entorno de 0.51889560).
Isso mostra que a mudança de apenas um parâmetro pode alterar bastante o resultado da
quantidade de iterações. No entanto, a acurácia do ‘identity’ é melhor em 0.01 pontos e
recall em 0.0002, mas já a variância, desvio padrão e precisão foram piores que a utilização
do ‘relu’.
Figura 2 - parâmetros finais
Figura 3 - resultados ‘identity’ acurácia
https://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPClassifier.html?highlight=mlpclassifier#sklearn.neural_network.MLPClassifier
https://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPClassifier.html?highlight=mlpclassifier#sklearn.neural_network.MLPClassifier
Figura 4 - resultados ‘relu’ acurácia
Figura 5 - resultados ‘identity’ precision e recall
Figura 6 - resultados ‘relu’ precision e recall
Questão 05
Faça uma resenha do artigo que está no CANVAS: “A Survey Of Methods For Explaining
Black Box Models”
RESP:
Nas últimas décadas, os sistemas de machine learning caixa preta começaram a ser
explorados, com o principal objetivo de prever informações individuais, alguns exemplos
disso podem ser a pontuação de crédito no ramo bancário, estado de saúde, e risco de
seguro. Esses algoritmos conseguem mapear os recursos de um usuário graças a uma fase
do aprendizado, isso ocorre pelos rastros digitais que cada pessoa deixa em seu cotidiano,
e em alguns casos por terem uma quantidade enorme de dados, e serem dados reais da
nossa sociedade eles podem conter conteúdo preconceituoso, levando ao algoritmo realizar
decisões erradas e injustas. Em 2018 foi debatido na Europa uma lei para a
regulamentação geral de proteção de dados, a chamada RGPD, um ponto tratado foi sobre
a tomada de decisão automatizadas de algoritmos, assim ao ser criada deve informar para
o público a lógica utilizada nessa automações, porém com os métodos caixa preta essa
regulamentação não funciona, gerando grandes debates entre os juristas da época. Ao
confiar em modelos de aprendizado de máquina treinados em conjuntos e infraestruturas de
alto desempenho, é aceito o risco de criar sistemas de decisão que não é entendido por
completo, impactando não somente na ética do algoritmo, mas também nas questões de
segurança, onde cada dia que passa vemos mais empresas fabricarem produtos com algum
tipo de aprendizado embarcado, como carros com navegação automática, e nesses casos
esses métodos podem interferir diretamente na segurança de seu utilizador. No entanto,
esse debate gera muitas divergências, pois cada comunidade trata o assunto de uma
maneira e com diferentes prioridades, mas mesmo assim, atualmente o aprendizado de
máquina de maneira interpretável é um tópico muito citado.
Um dos principais problemas de não utilizar um método de aprendizado de máquina
interpretável atualmente, é a possibilidade de discriminação que podem vir a gerar, isso
ocorre, pois, os dados utilizados para treinamento são dados reais, e historicamente nossa
sociedade passou por diversos casos de discriminação de povos minoritários até
chegarmos ao atual momento, que ainda existe esse movimento de conscientização contra
esses preconceitos, e isso se reflete nos dados trabalhados nesses algoritmos, que quando
utilizados podem criar um aprendizado preconceituoso, onde a máquina simplesmente
aprendeu com dados que refletem essa discriminação, de maneira não intencional. E por
isso é tão prejudicial à utilização de métodos caixa preta, pois com eles a lógica para a
obtenção dessa conclusão não é demonstrada, não podendo concluir se o problema foi
causado de maneira intencional ou não. Existem alguns exemplos históricos de sistemas
que tiveram analise discriminatória, entre os anos de 1970 e 1980 uma empresa inglesa
utilizava um software para fazer a seleção de seus candidatos, e mesmo sem nenhuma
referência a etnia ela gerava essa discriminação, contra minorias étnicas e mulheres, pois
conforme os dados inseridos pelo candidato, o algoritmo analisava o local de nascimento e
sobrenomes, diminuindo a chance de serem selecionados. E foi realizada uma pesquisa em
Princeton que demonstra como nomes associados a pessoas negras têm mais ligações
com termos desagradáveis que agradáveis. Em 2016 aconteceu com a Amazon, quando
seu sistema selecionou os locais onde teria frete grátis, o mesmo excluiu bairros de
características mais pobres.
Segundo os autores, a interpretabilidade consiste em dar ou fornecer o significado, ou
explicar e apresentar em termos compreensíveis algum conceito. Mas em mineração de
dados e aprendizado de máquina, a interpretabilidade é definida como a capacidade de
explicar ou fornecer o significado em termos compreensíveis para o ser humano, isso
consiste em uma "interface" entre o humano e o sistema tomador de decisão. A
interpretabilidade tem dois modelos, a Global e a Local, onde a primeira respectivamentetende a ser entendida em todo o processo lógico, seguindo todo o raciocínio construído, e a
segunda consiste em indicar somente a razão desse tipo de decisão, sem detalhar a
previsão. Além da interpretabilidade, para construir esse modelo pode-se analisar mais dois
pontos, a precisão que consiste até que ponto o modelo prevê com precisão instâncias não
vistas, e a fidelidade que é até que ponto o modelo consegue imitar com precisão um
algoritmo de caixa preta, captando assim o quanto é bom um modelo interpretável
comprando com um sem interpretação. Atualmente existem alguns modelos interpretáveis
reconhecidos, como o da árvore de decisão, considerados de fácil entendimento ao ser
humano. Um sistema de decisão baseado em árvore, explora um grafo estruturado sendo
compostos por nós internos que representam testes em características ou atributos, e os
nós folhas representam um rótulo de classe, e assim cada ramo da árvore retrata um
resultado possível, os caminhos da raiz até a folha reflete as regras de classificação.
Os autores do artigo também relatam que na literatura não é muito encontrado conteúdo
sobre a complexidade do modelo, e isso está diretamente ligado ao entendimento do
algoritmo, e em alguns casos utiliza-se uma análise aproximada para resolver essa tarefa,
deixando assim a complexidade com um conceito oposto ao da interpretabilidade. Em
alguns casos a complexidade é identificada pelas partes do modelo para quais os limites
são definidos, em modelos lineares é adotado o limite de pesos diferentes de zero, e em
árvores de decisão são adotados a profundidade da mesma.
Os tipos de dados são outro ponto destacados pelos autores, onde podem ser
representados de diversas maneiras, e de diferentes níveis de interpretabilidade para um
ser humano. O formato de dados mais comum é a tabela, como matrizes e vetores, e são
também de fácil manipulação para diversos algoritmos, utilizado em grande parte na área
de mineração de dados e aprendizado de máquina, onde a mesma não necessita de
transformações específicas. Outro formato citado consiste no de imagens e textos, eles são
o mais compreensíveis para o cérebro humano, porém o processamento desses dados
pelos algoritmos é mais complicado, e o principal motivo é a necessidade da transformação
dos dados contidos ali em um array de informações, e assim alguns modelos não podem
ser expostos a esse tipo de dado. Ainda são conhecidas outras formas de dados, como
dados de sequência, dados espaço-temporais e dados de redes complexas, que podem ser
usados por algoritmos de mineração de dados e aprendizado de máquina, porém não
existem pesquisas conhecidas sobre a interpretabilidade de dados diferentes de tabela, e
imagens e textos.
A explicação do resultado de um modelo caixa preta interpretável para os autores consiste
em, fornecer um resultado que é um método contendo uma explicação, assim o mesmo
deve retornar a previsão com uma explicação sobre os motivos dessa afirmação, não
demonstrando toda a lógica por trás, mas apenas a escolha de uma determinada instância.
Foi proposto no artigo uma classificação baseada no tipo do problema enfrentado e no
explicativo adotado para abrir a caixa preta, levando em consideração o tipo de problema
enfrentado, o tipo de modelo da caixa, e o tipo de dados usados como entrada pelo modelo
da caixa preta. Observaram-se alguns pontos durante a análise, e o primeiro consiste que a
árvore de decisão foi reconhecida como um dos modelos mais interpretáveis e facilmente
compreensíveis, principalmente para explicações globais e locais. Regras de Decisão estão
entre os modelos mais compreensíveis entre os humanos. A importância das características
é uma solução dada à explicação do conjunto de dados usado pela caixa preta com seu
peso. Máscara foi outro ponto nomeado para detalhar a causa de um determinado
resultado, principalmente quando se trata de imagens ou textos, e é basicamente utilizado
"máscaras" para destacar visualmente os aspectos determinantes do registro analisado,
utilizado principalmente na explicação das redes neurais. Análise de Sensibilidade
basicamente avalia a incerteza do resultado de uma caixa preta em relação a diferentes
fontes de incerteza em suas entradas. Parcela de Dependência Parcial são gráficos que
ajudam a visualizar e entender a relação entre o resultado de uma caixa preta e a entrada
em um espaço de recursos reduzido. Seleção de Protótipo é outra etapa com o objetivo de
devolver, com o resultado, um exemplo semelhante do registro classificado, a fim de deixar
claro o critério utilizado para a realização da previsão. A última etapa é a Ativação de
Neurônios, e a inspeção de redes neurais, que pode ser realizada também observando
quais são os neurônios fundamentais ativados em relação a determinados registros de
entrada.
Os autores também apresentaram o método mais comum para tentar “abrir” algum
algoritmo de caixa preta, tentando torná-lo interpretável, usando a engenharia reversa, e
isso ocorre obtendo o resultado e comparando com a entrada, fazendo a análise das
perturbações aleatórias causadas pelo algoritmo, avaliando o porquê e como ela foi
causada, e realizando vários testes. Uma solução apresentada para o problema consiste
em adotar uma abordagem com proposta da função f, que usa os componentes internos de
um modelo de floresta aleatória b para produzir recomendações sobre a transformação de
exemplos negativos verdadeiros em exemplos positivamente previstos. Essas
recomendações, que estão estritamente relacionadas à importância do recurso,
correspondem ao preditor global, e a função f tem como objetivo transformar uma instância
negativa em uma instância positiva analisando os caminhos.
Os autores concluem que existe uma quantidade considerável de pesquisas feitas pela
comunidade sobre o tema tratado, porém a comunidade de aprendizado de máquina foca
mais descrever como funcionam as caixas pretas, e o segundo respectivamente com o foco
voltado em explicar as decisões mesmo sem entender o detalhamento de como funciona o
sistema de decisão. Foi notado que muitas das pesquisas presente no meio acadêmico
para explicar as caixas pretas contém questionamentos sem respostas, e um desses
problemas consiste que, não existe um acordo sobre o que é uma explicação para detalhar
o funcionamento de uma caixa preta (aberta), muitos pesquisadores definem como um
conjunto de regras, outros uma árvore de decisão e até como protótipos, ficando evidente
que a atividade de pesquisa neste campo não focou na importância de estudar um
formalismo geral e comum para definir uma explicação. Também não foi encontrado
pesquisas que medem e categorizam a interpretabilidade para o ser humano, mas isso
ocorre pelo fato de que os parâmetros específicos de cada humano tem influência no
resultado final, e considerando que cada um tem seu grau de expertise e tempo de
entendimento pode-se considerar uma tarefa mais complicada, mas esse levantamento
poderia ajudar a aplicabilidade da prática na maioria das abordagens levantadas nas
pesquisas desse meio.
Questão 06
Assista ao documentário “Coded Bias” da NETFLIX e faça um breve resumo do que você
entendeu do assunto. Qual a relação deste documentário com o artigo anterior?
RESP:
O documentário Coded Bias mostra como a pesquisadora Joy Buolamwini percebe um
problema no reconhecimento facial em uma tarefa do MIT, quando ela utiliza uma
ferramenta de inteligência artificial e não é reconhecida, assim ela realiza um teste,
repetindo o reconhecimento com uma máscara branca, na qual obtém sucesso, dessa
forma, começando o estudo do sistema, identifica que o mesmo começa a criar padrões a
partir de uma base de dados que a maioria são homens brancos. O documentário tem
relação com o artigo “A Survey Of Methods For Explaining Black Box Models”, pois, retrata
o preconceito do aprendizado de máquina em uma realidade, e o artigo é uma pesquisa e
análise de algoritmos caixa preta, onde os mesmos por não terem uma clara explicação de
seu funcionamento, possuem uma chance de seremdiscriminatórios, e procura a
explicação do porquê algoritmos desse tipo geram esse resultado, analisando como que
deveriam ser criados os algoritmos de tomada de decisão, visando o entendimento por
parte de qualquer pessoa da lógica para a geração do resultado, e assim como no
documentário que Buolomwini percebe um padrão no reconhecimento facial, ela realiza
pesquisa com diversos pesquisadores sobre o assunto dos algoritmos sem uma clara
interpretabilidade.

Continue navegando