<div dir="ltr">Ah, I hadn't remembered that was from Keith's talk :-)<div><br></div><div>I don't know where he got it from either, but there's an image on Wikimedia that looks extremely similar ... <a href="https://commons.wikimedia.org/wiki/File:Stereogramme_PI.jpg">https://commons.wikimedia.org/wiki/File:Stereogramme_PI.jpg</a>. </div><div><br></div><div>LCA has an annoying habit of running the 'current' conference in the same namespace each year, and then archiving the old versions into a different subdomain ... it would be better if they just published under "<a href="http://lcaYYYY.linux.conf.au">lcaYYYY.linux.conf.au</a>" and then redirected users to the current year ...</div><div><br></div><div><a href="https://lca2017.linux.org.au/schedule/presentation/65/index.html">https://lca2017.linux.org.au/schedule/presentation/65/index.html</a><br></div><div><br></div><div>Our colleagues over at <a href="http://www.bitbabbler.org/what.html">http://www.bitbabbler.org/what.html</a> have a long discussion about what statistical testing means to them, and from there I get the idea that basically all these tests don't mean what we think they mean ... they're only hunting for egregious failures.</div><div><br></div><div>Sadly I don't think I have the maths to describe why something that obviously has structure (e.g. that stereogram) is potentially passing the tests. I could throw up copies of dieharder & related tools, and try to find data that they declared good, that I knew to be bad ... (like the digits of various irrational numbers like pi itself?) but I'm not sure what it would actually mean. The purpose of these tools isn't to say if a given block of data is random, it's to make comments on repeated samples from an RNG ...</div><div><br></div><div>-jim</div></div>