Esse é um problema clássico de algoritmo. Para resolver esse problema, você pode seguir os seguintes passos: 1. Leia um valor inteiro. 2. Inicialize uma variável para cada tipo de nota (100, 50, 20, 10, 5, 2 e 1) com valor zero. 3. Divida o valor lido pelo valor da nota de maior valor (100) e armazene o resultado na variável correspondente a essa nota. 4. Subtraia o valor total das notas de maior valor já calculadas do valor original. 5. Repita o passo 3 para as notas de menor valor, até chegar na nota de valor 1. 6. Imprima a quantidade de notas de cada tipo necessárias para decompor o valor original. Segue abaixo um exemplo de código em Python que implementa essa lógica: ``` valor = int(input()) nota100 = nota50 = nota20 = nota10 = nota5 = nota2 = nota1 = 0 nota100 = valor // 100 valor = valor % 100 nota50 = valor // 50 valor = valor % 50 nota20 = valor // 20 valor = valor % 20 nota10 = valor // 10 valor = valor % 10 nota5 = valor // 5 valor = valor % 5 nota2 = valor // 2 valor = valor % 2 nota1 = valor print(valor) print("{} nota(s) de R$ 100,00".format(nota100)) print("{} nota(s) de R$ 50,00".format(nota50)) print("{} nota(s) de R$ 20,00".format(nota20)) print("{} nota(s) de R$ 10,00".format(nota10)) print("{} nota(s) de R$ 5,00".format(nota5)) print("{} nota(s) de R$ 2,00".format(nota2)) print("{} nota(s) de R$ 1,00".format(nota1)) ``` Esse código lê um valor inteiro, calcula a quantidade de notas de cada tipo necessárias para decompor esse valor e imprime o resultado na tela.
Para escrever sua resposta aqui, entre ou crie uma conta
Compartilhar