<html><head></head><body><div style="font-family: Verdana;font-size: 12.0px;"><div>Hello python developer(?).</div>

<div> </div>

<div>I have been testing some stuff in python, when this weird thing happened to me. I had the exact following code:</div>

<div> </div>

<div>for i in range(0, 100):<br/>
    print(1 + (i / 100))</div>

<div> </div>

<div>This should print the numbers from 1.00 to 1.99, by always adding 0.01. But when i was 14, the result wasn't 1.14 but 1.1400000000000001. Similar errors happend with other numers as well, for example 1.3599999999999999 and 1.6800000000000002. I have added some screenshots to my email.</div>

<div> </div>

<div>
<div>It is also strange that this doesn't happen if I don't add 1. It all goes what it should do like if i run the following code:</div>

<div> </div>

<div>for i in range(0, 100):<br/>
    print(i / 100)</div>

<div> </div>

<div>I hope you can fix this soon.</div>

<div> </div>

<div>Luca Niederstadt</div>
</div></div></body></html>