Usuário(a):NogardRyuu/Testes/Vírgula flutuante

Origem: Wikipédia, a enciclopédia livre.

Vírgula flutuante (original em alemão Gleitkomma ou Fließkomma) ou ponto flutuante (do inglês floating point) é um formato de representação digital de números racionais, que é usada nos computadores.

História da vírgula flutuante[editar | editar código-fonte]

Vários estudiosos contribuíram para a história da virgula flutuante, dentre eles, Leonardo Torres y Quevedo, que, em 1914 projetou uma versão eletromecânica da Máquina Analítica de Charles Babbage, e nela incluiu a aritmética de ponto flutuante.[1] Konrad Zuse de Berlim, em 1938, completou o Z1, o primeiro binário programável em um computador mecânico.[2] A representação utilizada por ele é de número de ponto flutuante binário de 24 bits com um expoente com sinal de 7 bits, um significando de 17 bits (incluindo um bit implícito) e um bit de sinal.[3] O binário Z3 foi concluindo em 1941 e tem representações para infinitos positivos e negativos; em particular, ele implementa operações definidas com infinito, como 1/ ∞ = 0 ,e para em operações indefinidas, como 0 x ∞.

Konrad Zuse , arquiteto do computador Z3 , que usa uma representação de ponto flutuante binário de 22 bits.

Konrad Zuse também propôs o Z3, mas não completou. A aritmética de ponto flutuante cuidadosamente arredondada que incluem ± ∞ e representações NaN, antecipando recursos do IEEE que foi padrão por quatro décadas.[4] Por outro lado, von Neumann recomendou contra números de ponto flutuante para a máquina IAS 1951, argumentando que a aritmética de ponto fixo é preferível.[4]

O primeiro computador comercial com hardware de ponto flutuante foi o Z4 da Zuse. Foi projetado em 1942-1945. Em 1946, Bell Laboratories introduziu o Mark V, que implementou números de ponto flutuante decimal.[5]

O Pilot ACE, um dos primeiros computadores construídos no Reino Unido, tem aritmética de ponto flutuante binário, e tornou-se operacional em 1950 no National Physical Laboratory. Após sua produção, trinta e três dele foram vendidos comercialmente como o Inglês Elétrico DEUCE. A aritmética nesses computadores era implementada em software, mas com uma taxa de tempo de um megahertz, a velocidade do ponto flutuante e do ponto fixo nas operações dessa máquina foram inicialmente mais rápidas do que as de muitos computadores concorrentes.[6]

O IBM 704, foi um computador desenvolvido para cálculos de larga escala, primordialmente para fins comerciais. Começou a ser produzido em massa em 1954 e ele introduziu o uso de exponente em excesso (bias).[7] Décadas depois, o hardware de ponto flutuante era tipicamente um recurso opcional e os computadores que os possuíam foram chamados de "computadores científicos", ou ter capacidade de "computação científica" (SC). Somente a partir do lançamento do Intel i486, em 1989, que os computadores pessoais de uso geral tiveram capacidade de ponto flutuante em hardware como um recurso padrão.

A série UNIVAC 1100/2200, introduzida em 1962, suportava duas representações de ponto flutuante:

  • Precisão simples: 36 bits, organizado como um sinal de 1 bit, um expoente de 8 bits e um significando de 27 bits.
  • Precisão dupla: 72 bits, organizado como um sinal de 1 bit, um expoente de 11 bits e um significando de 60 bits.

O IBM 7094, que também foi lançado em 1962, suporta representações de precisão simples e dupla, mas sem relação com às representações da UNIVAC. Em 1964, a IBM introduziu as representações de ponto flutuante hexadecimal em seu System / 360, unidades centrais de processamento, e elas ainda estão disponíveis para uso em sistemas z / Architecture modernos. No entanto, em 1998, a IBM incluiu aritmética de ponto flutuante binário compatível com IEEE em seus mainframes, gabinete principal que alojava a unidade central de processamento nos primeiros computadores. Em 2005, a IBM também adicionou IEEE-aritmética de ponto flutuante decimal compatível.

Inicialmente, os computadores usaram muitas representações diferentes para números de ponto flutuante. A falta de padronização no nível de mainframe era um problema contínuo no início dos anos 1970 para aqueles que escreviam e mantinham código-fonte de nível superior. Esses padrões de ponto flutuante do fabricante diferiam nos tamanhos das palavras, nas representações e no comportamento de arredondamento e precisão geral das operações.

A compatibilidade de ponto flutuante em vários sistemas de computação precisava desesperadamente de padronização no início de 1980, levando à criação do padrão IEEE 754, uma vez que a palavra de 32 bits (ou 64 bits) tinha se tornado comum. Este padrão foi significativamente baseado em uma proposta da Intel, que estava projetando o i8087 coprocessador numérico. A Motorola, que estava projetando o 68000 na mesma época, também deu uma contribuição significativa. Em 1989, o matemático e cientista da computação William Kahan foi homenageado com o Prêmio Turing por ser o principal arquiteto por trás dessa proposta. Ele foi auxiliado por seu aluno (Jerome Coonen) e um professor visitante (Harold Stone).[8]

Entre as inovações do x86 estão:

  • Uma representação de ponto flutuante precisamente especificada no nível da string, cadeia de caracteres, de bits de modo que todos os computadores compatíveis interpretarem padrões de bits da mesma maneira. Isso torna possível transferir com precisão e eficiência do ponto flutuante números de um computador para outro (após considerar a extremidade).
  • Um comportamento precisamente especificado para as operações aritméticas: um resultado deve ser produzido como se infinitamente aritmética precisa foi usada para produzir um valor que é então arredondado de acordo com regras específicas. Isso significa que um programa de computador compatível sempre produziria o mesmo resultado quando dado uma entrada particular, mitigando assim a reputação quase mística que a computação de ponto flutuante desenvolveu para seu até então comportamento aparentemente não determinístico.
  • A capacidade de condições excepcionais (estouro, divisão por zero, etc.) de se propagar por meio de um cálculo em um de maneira benigna e, em seguida, gerenciado pelo software de maneira controlada.

Generalidades sobre vírgula flutuante[editar | editar código-fonte]

Ao falar em números reais a visualização vinda à cabeça é:

Representação de um número fracionário.

No entanto, essa representação custa caro, em termos de processamento e armazenamento ao computador havendo a necessidade de utilizar uma outra maneira que favoreça tais tarefas. Para trabalhar com a parte fracionária de forma satisfatória, usa-se a representação por vírgula flutuante.

Essa representação baseia-se no deslocamento da vírgula de forma que se obtenha um número menor ou próximo de 1. Esse deslocamento é feito por meio de notação científica. Esclarecendo: o número 25,456 em notação corresponde ao 0,25456 x 102.

O exemplo acima tinha como base a decimal, no entanto o computador trabalha com a base 2 (binários – 0 e 1). Então um número binário 11,011 em notação corresponde ao 0,11011 x 22. Esse processo de transcrever um número em notação científica recebe o nome de normalização, portanto 0,11011 x 22 está normalizado.

De forma geral, representa-se um número em vírgula flutuante da seguinte forma:

+- M X B+-e

Onde:

Esquematicamente tem-se [9]:

Desta forma é possível cobrir um largo espectro de números, maximizando o número de bits significativos e consequentemente a precisão da aproximação. Esta forma de representação foi criada por Konrad Zuse para os seus computadores Z1 (1937) e Z3 (1941), batizada, então, de Gleitkommazahl (literalmente número com vírgula escorregante).[carece de fontes?]

O número de bits alocados para representar a mantissa e o expoente depende da norma utilizada.

Para obter o número em vírgula flutuante converte-se o número para a base na qual será armazenado, normaliza-o e por fim separa-se mantissa, expoente e sinais.

Exemplo[10]:

Assumindo:

  • 1 bit para o sinal do número
  • 1 bit para o sinal do expoente
  • 4 bits para o expoente
  • 10 bits para a mantissa

Represente o número 5,7510 em vírgula flutuante. O número em questão encontra-se na base 10, portanto é preciso convertê-lo para binário (base 2), base entendida pelo computador. 5,7510 => 101,112

Normalizando tem-se: 0,10111 x 23

Separando sinais, mantissa e expoente tem-se:

  • Sinal do número: (+) 0
  • Sinal do expoente: (+) 0
  • Expoente: 011 (3)
  • Mantissa: 10111

Portanto tem-se: 00001100000101112

A maioria dos sistemas que operam com vírgula flutuante utilizam representações definidas na norma IEEE 754.

O padrão IEEE para aritmética de vírgula flutuante (IEEE 754) é o padrão mais amplamente utilizado, e é seguido por muitos CPU e melhorias FPU. A norma define formatos para representar números de vírgula flutuante (incluindo zero) e os valores não normalizados, bem como os valores especiais infinito e NaN, com um conjunto de operações de vírgula flutuante que trabalham com esses valores. Também especifica quatro modos de arredondamento e cinco exceções (inclusive quando essas exceções ocorrem é o que acontece nesses momentos). A Norma IEEE 754-2008 define os formatos adequados para representar números em vírgula flutuante de precisão simples (32 bits) e de precisão dupla (64 bits). O título completo da norma é o padrão IEEE para Aritmética Binária de Vírgula Flutuante (ANSI / IEEE Std 754-1985), e também é conhecido pelo IEC 60559:1989, Binary floating-point arithmetic for microprocessor systems (originalmente o número de referência era IEC 559:1989).[11][12]

O formato de vírgula flutuante de precisão simples (32 bits) consiste num bit de sinal (s), 8 bits de expoente (e) e uma mantissa de 23 bits (m). O bit de sinal (s) é 0 (zero) para números positivos e 1 para números negativos. O campo de expoente (e) corresponde à soma de 127 com o expoente de base 2 do número representado. O campo de mantissa (m) corresponde à parte fracionária da mantissa do número representado. Considera-se sempre a mantissa normalizada entre 1 e 2. Desta forma a sua parte inteira é sempre apenas um bit igual a 1 (um) que não é necessário representar.

v = S × M × 2E

Onde:

S = 1 − 2 × s

M = 1.m = 1 + m × 2−23

E = e − 127

IEEE 754 vígula flutuante de precisão simples de 32 bits
sinal (1 bit) expoente (8 bits) mantissa (23 bits)
  ┃ ┌────────────────────┐ ┌─────────────────────────────────────────────────────────────────┐
 0   0   1   1   1   1   1   0   0   0   1   0   0   0   0   0   0   0   0   0   0   0   0   0   0   0   0   0   0   0   0   0 
31 30 23 22 0

Problemas com o uso de ponto flutuante[editar | editar código-fonte]

Em geral, o conjunto de números representáveis pela notação de ponto flutuante é semelhante o suficiente ao conjunto dos números reais para a maior parte das aplicações, o que no entanto frequentemente leva programadores a desconsiderar a importância da análise numérica adequada sobre os resultados obtidos. Há muitas inconsistências entre o comportamento dos números de ponto flutuante em base 2 (binário) e os números reais, mesmo em casos muito simples (como a fração decimal 0,1, que por em binário ser uma dízima periódica, não pode ser expressa de maneira exata por qualquer representação binária finita). As principais causas de erro com uso de ponto flutuante são:

  • Arredondamento de valores (por exemplo, 0,1);
  • Arredondamento de operações aritméticas (por exemplo, 0.1 + 0.2 = 0.30000000000000004[13]);
  • Absorção de valores de diferentes níveis de magnitude (por exemplo, 1e8f + 1 - 1e8f = 0[14]);
  • Cancelamento (por exemplo, a subtração de dois números muito próximos);
  • Overflow, ou transbordamento (com relatórios de resultado infinito);
  • Underflow (devolve um 0, ou o número subnormal, menor do que o menor permitido);
  • Operação impossível (por exemplo, raiz quadrada de um números negativos resultando em NaN - Not a Number);
  • Necessidade de deslocamento dinâmico do expoente[15].

A notação de ponto flutuante é particularmente adequada quando se almeja uma maior amplitude do domínio representável em detrimento da constância da precisão, cenário frequente em aplicações científicas e de engenharia. Instituições financeiras, porém, frequentemente dão preferência à notação de ponto fixo almejando uma precisão constante.

Propriedades de aritmética de ponto flutuante[editar | editar código-fonte]

Esta aritmética tem duas diferenças fundamentais: ela não é, necessariamente, nem associativa nem distributiva:

.

Ou seja, a ordem em que você estiver executando operações de ponto flutuante pode influenciar o resultado. Isto é importante para a análise numérica, uma vez que duas fórmulas matematicamente equivalentes podem ter resultados e precisões diferentes. Por exemplo, na maioria das aplicações de ponto flutuante, 1,0 + (10100 + -10100) resulta em 1,0, enquanto que (1,0 + 10100) + -10100 dá 0,0[carece de fontes?]

Exemplos[editar | editar código-fonte]

A fração decimal:

0,125

é representada por: 1/10 + 2/100 + 5/1000. Da mesma forma, a fração binária:

0,001

tem valor: 0/2 + 0/4 + 1/8. Os dois valores são idênticos, sendo o primeiro escrito na base 10 e o segundo na base 2.

Valor S × M × 2E s m e IEEE 754 - Single Precision
1 1 × 1 × 20 0 0x00 127 0 0111 1111 000 0000 0000 0000 0000 0000
-1 -1 × 1 × 20 1 0x00 127 1 0111 1111 000 0000 0000 0000 0000 0000
0,5 1 × 1 × 2−1 0 0x00 126 0 0111 1110 000 0000 0000 0000 0000 0000
-0,5 -1 × 1 × 2−1 1 0x00 126 1 0111 1110 000 0000 0000 0000 0000 0000
0,15625 1 × 1,25 × 2−3 0 0x200000 124 0 0111 1100 010 0000 0000 0000 0000 0000

Tabela com exemplos de números reais de três dígitos significativos e sua representação em notação científica:

Número real Notação científica
0.000000000000000438 4.38× 10−16
0.000000438 4.38× 10−7
0.00438 4.38× 10−3
0.438 4.38× 10−1
4.38 4.38× 100
43.8 4.38× 101
4380.0 4.38× 103
43800000.0 4.38× 107
43800000000000000.0 4.38× 1016

Valores especiais[editar | editar código-fonte]

As notações com os bits do campo expoente (e) todos a um ou todos a zero são reservadas para valores especiais. O zero é representado com e=0 e m=0. Outros valores de m com e=0 indicam números não normalizados. Nestas casos considera-se a mantissa entre 0 e 1.

IEEE 754 - Single Precision Valor
s e m
0 0000 0000 000 0000 0000 0000 0000 0000 +0 Zero
1 0000 0000 000 0000 0000 0000 0000 0000 -0
0 1111 1111 000 0000 0000 0000 0000 0000 +Inf Infinito Positivo
1 1111 1111 000 0000 0000 0000 0000 0000 -Inf Infinito Negativo
0 1111 1111 010 0000 0000 0000 0000 0000 +NaN Not a Number
1 1111 1111 010 0000 0000 0000 0000 0000 -NaN

Operações aritméticas de ponto flutuante: adição e subtração; multiplicação e divisão[16][editar | editar código-fonte]

Para facilitar a apresentação e compreensão, a raiz decimal com precisão de 7 dígitos será usada nos exemplos, como no IEEE Formato 754 decimal32. Os princípios fundamentais são os mesmos em qualquer raiz ou precisão, exceto que a normalização é opcional (não afeta o valor numérico do resultado). Aqui, s denota o significando e e denota o expoente.

Adição e subtração[editar | editar código-fonte]

Um método simples para adicionar números de ponto flutuante é primeiro representá-los com o mesmo expoente. No exemplo abaixo, o segundo número é deslocado para a direita em três dígitos, e um prossegue com o método de adição usual:

Consequentemente:

Em detalhe:

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

e=5; s=1.234567 (123456.7)

+ e=2; s=1.017654 (101.7654)

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

e=5; s=1.234567 (após a mudança)

+ e=5; s=0.001017654

------------------------------------------------------

e=5; s=1.235584654 (soma verdadeira: 123558.4654)

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Este é o resultado verdadeiro, a soma exata dos operandos. Ele será arredondado para sete dígitos e depois normalizado, se necessário. O resultado final é:

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

e=5; s=1.235585 (soma final : 123558.5)

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Os três dígitos mais baixos do segundo operando (654) são essencialmente perdidos. Este é um erro de arredondamento. Em casos extremos, a soma de dois números diferentes de zero podem ser iguais a um deles:

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

e=5; s=1.234567

+ e=−3; s=9.876543

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

e=5; s=1.234567

+ e=5; s=0.00000009876543 (depois de mudar)

------------------------------------------------------

e=5; s=1.23456709876543 (soma verdadeira)

e=5; s=1.234567 (após arredondamento e normalização)

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Nos exemplos conceituais acima, pareceria que um grande número de dígitos extras precisaria ser fornecido pelo somador para garantir o arredondamento correto; no entanto, para adição ou subtração binária usando técnicas de implementação cuidadosas, apenas um guarda bit, um bit de arredondamento e um bit sticky extra precisam ser transportados além da precisão dos operandos.[17][18]

Outro problema de perda de significância ocorre quando aproximações de dois números quase iguais são subtraídas. No seguinte exemplo e = 5; s = 1.234571 e e = 5; s = 1.234567 são aproximações aos racionais 123457.1467 e 123456.659.

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

e=5; s=1.234571

e=5; s=1.234567

------------------------------------------------------

e=5; s=0.000004

e=−1; s=4.000000 (após arredondamento e normalização)

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

A diferença de ponto flutuante é calculada exatamente porque os números estão próximos - o lema de Sterbenz garante isso, mesmo em caso de underflow, quando o underflow gradual é suportado. Apesar disso, a diferença dos números originais é e = −1; s = 4.877000, que difere mais de 20% da diferença e = −1; s = 4.000000 das aproximações. Em casos extremos, todos os dígitos significativos de precisão podem ser perdidos. Este cancelamento ilustra o perigo de assumir que todos os dígitos de um resultado computado é significativo. Lidar com as consequências desses erros é um tópico da análise numérica.

Multiplicação e divisão[editar | editar código-fonte]

Para multiplicar, as mantissas (s) são multiplicadas enquanto os expoentes (e) são adicionados, e o resultado é arredondado e normalizado.

e=3; s=4.734612

multiplicado por

e=5; s=5.417242

-----------------------

e=8; s=25.648538980104 (produto verdadeiro)

e=8; s=25.64854 (após arredondamento)

e=9; s=2.564854 (após normalização)

Da mesma forma, a divisão é realizada subtraindo o expoente do divisor do expoente do dividendo e dividindo a mantissa do dividendo pela mantissa do divisor.

e=3; s=4.734612

dividido por

e=5; s=5.417242

-----------------------

e=2; s=0.8739893843 (produto verdadeiro)

e=2; s=0.87399 (após arredondamento já normalizado)

Não há problemas de cancelamento ou absorção com multiplicação ou divisão, embora pequenos erros possam se acumular conforme as operações são realizadas em sucessão

Implementação em linguagens de programação[editar | editar código-fonte]

Muitas frações decimais não podem ser representadas exatamente como frações binárias finitas. Por consequência, diversos números armazenados na máquina em váriaveis do tipo ponto flutuante (float, double, real) são apenas aproximações.[19]

Considere, por exemplo, a fração 1/3. Uma aproximação decimal seria:

0,3
ou, melhor:
0,33
ou, ainda melhor:
0,333

e assim por diante. Não existe uma fração finita capaz de resultar em exatamente 1/3.

Um outro exemplo interessante é a fração 1/10. Em muitas linguagens de programação, apesar de rotinas de impressão mostrar o valor 0,100000, se exibirmos o número com maior precisão (por exemplo, 20 casas decimais), veremos que o valor real armazenado será algo aproximado de:

0,10000000149001612000 (o valor pode mudar segundo o hardware e a linguagem utilizada).

Assim, ao programar é preciso ter cuidado com números em ponto flutuante, em especial com acumuladores e comparações.


Precisão da máquina e análise de erro reverso

A precisão da máquina é uma quantidade que caracteriza a exatidão de um sistema de ponto flutuante e é usada na análise de erros retroativos de algoritmos de ponto flutuante. É também conhecido como arredondamento da unidade ou épsilon da máquina. Normalmente denotado por Εmach, seu valor depende do arredondamento particular que está sendo usado.

, onde B é caracterizado como a base do sistema de ponto flutuante e P a precisão.

Com arredondamento para zero,

, este é o maior valor possível para o erro relativo.

Isso é importante, pois limita o erro relativo na representação de qualquer número real diferente de zero dentro do intervalo normalizado de um sistema de ponto flutuante:

A análise de erros reversos, cuja teoria foi desenvolvida e popularizada por James H. Wilkinson, pode ser usada para estabelecer que um algoritmo que implementa uma função numérica é numericamente estável. A abordagem básica é mostrar que embora o resultado calculado, devido a erros de arredondamento, não seja exatamente correto, é a solução exata para um problema próximo com dados de entrada levemente perturbados. Se a perturbação necessária for pequena, na ordem da incerteza nos dados de entrada, então os resultados são, em certo sentido, tão precisos quanto os dados "merecem". O algoritmo é então definido como estável com versões anteriores. A estabilidade é uma medida da sensibilidade a erros de arredondamento de um determinado procedimento numérico; em contraste, o número de condições de uma função para um determinado problema indica a sensibilidade inerente da função a pequenas perturbações em sua entrada e é independente da implementação usada para resolver o problema.

Como um exemplo trivial, considere uma expressão simples fornecendo o produto interno de (comprimento de dois) vetores x e y, então:

, onde fl indica a aritmética de ponto flutuante corretamente arredondado;

, onde ;

E então:

;

Onde:

Onde:

por definição, que é a soma de dois dados de entrada levemente perturbados (na ordem de Εmach) e, portanto, é estável com versões anteriores.

Referências

  1. Randell, Brian. «From analytical engine to electronic digital computer: The contributions of Ludgate, Torres, and Bush». IEEE. Annals of the History of Computing. 4. doi:10.1109/mahc.1982.10042 
  2. Rojas, Raúl. «Konrad Zuse's Legacy: The Architecture of the Z1 and Z3». IEEE. Annals of the History of Computing. 19. doi:10.1109/85.586067 
  3. Rojas, Raul (7 de junho de 2014). «The Z1: Architecture and Algorithms of Konrad Zuse's First Computer». arXiv:1406.1886 [cs]. arXiv:1406.1886Acessível livremente 
  4. a b Kahan, William. «The baleful effect of computer languages and benchmarks upon applied mathematics, physics and chemistry» (PDF) 
  5. Randell, Brian, ed. (1982). The Origins of Digital Computers: Selected Papers. Col: Monographs in Computer Science (em inglês) 3 ed. Berlin Heidelberg: Springer-Verlag. ISBN 978-3-540-11319-5. doi:10.1007/978-3-642-61812-3 
  6. Campbell-Kelly, Martin (1981). «Programming the Pilot ACE: Early Programming Activity at the National Physics Laboratory». IEEE. Annals of the History of Computing (em inglês). doi:10.1109/MAHC.1981.10015 
  7. Stratmann, Jacqueline (2015). «Implementation and Verification of IEEE-conform Floating Point Arithmetic» 
  8. Severance, Charles (20 de fevereiro de 1998). «An Interview with the Old Man of Floating-Point». IEEE Computer 
  9. Prof. MSc. Steinmacher,Igor, 2009, Imagem esquemática do Slide sobre Representação de Dados-Pontos Flutuantes
  10. Prof. MSc. Steinmacher, Igor, 2009, Exemplo retirado do Slide sobre Representação de Dados-Pontos Flutuantes
  11. http://pubs.opengroup.org/onlinepubs/009695399/frontmatter/refdocs.html
  12. http://www.ajdesigner.com/fl_ieee_754_word/ieee_32_bit_word.php
  13. Wiffin, Erik (19 de outubro de 2020). «0.30000000000000004». Consultado em 20 de novembro de 2020 
  14. Zitoun, Heytem; Michel, Claude; Rueher, Michel; Michel, Laurent (7 de julho de 2018). «Sub-domain Selection Strategies For Floating Point Constraint Systems». Springer. International Conference on Principles and Practice of Constraint Programming. Consultado em 20 de novembro de 2011 
  15. «LABVIEW NXG 5.0 MANUAL». NATIONAL INSTRUMENTS CORP. 9 de agosto de 2019. Consultado em 20 de novembro de 2020 
  16. «Floating-point arithmetic». Wikipedia (em inglês). 17 de fevereiro de 2021. Consultado em 17 de fevereiro de 2021 
  17. Goldberg, David (1 de março de 1991). «What every computer scientist should know about floating-point arithmetic». ACM Computing Surveys (1): 5–48. ISSN 0360-0300. doi:10.1145/103162.103163. Consultado em 17 de fevereiro de 2021 
  18. Kahan; W., Darcy; Joseph D. (30 de julho de 2004). «How Java's Floating-Point Hurts Everyone Everywhere» 
  19. «Floating Point Arithmetic: Issues and Limitations» (em inglês). Python v2.6.4 documentation 
Ícone de esboço Este artigo sobre informática é um esboço. Você pode ajudar a Wikipédia expandindo-o.