<div dir="ltr"><div>Hello all,</div><div><br></div><div>I am interested in a better understanding of the nature of computational error. My sense is that actual, literal (mathematical) mistakes in modern computers are quite rare; the notorious Pentium bug of the early 1990s is the exception that proves the rule. Most bugs are, rather, code proceeding to a perfectly correct logical outcome that just so happens to be inimical or intractable to the user and/or other dependent elements of the system. The Y2K "bug," for instance, was actually code executing in ways that were entirely internally self-consistent, however much havoc the code would wreak (or was expected to wreak).<br></div><div><br></div><div>Can anyone recommend reading that will help me formulate such thoughts with greater confidence and accuracy? Or serve as a corrective? I'd like to read something fundamental and even philosophical about, as my subject line has it, <i>the nature of computational error</i>. I'd also be interested in collecting other instances comparable to the Pentium bug--bugs that were actual flaws and mistakes hardwired at the deepest levels of a system.<br></div><div><br></div><div>Thank you-- Matt</div><div><br></div><div><br>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr">Matthew Kirschenbaum<br>Professor of English and Digital Studies<br>Director, Graduate Certificate in Digital Studies<br>Printer's Devil, BookLab<br>University of Maryland</div><div><a href="mailto:mgk@umd.edu" target="_blank">mgk@umd.edu</a><br></div></div></div></div></div></div>