<div><div><div dir="auto">Hi everyone,</div><div dir="auto"><br></div><div dir="auto">I&#39;m forwarding along an announcement for a talk at 5pm today at MIT. It shows how to generate 3D-printed objects in an adversarial way to fool machine learning classifiers. (Also there&#39;s a link to the paper below.)</div></div></div><div><div><div dir="auto"><br></div><div dir="auto">Mayank</div></div><div><div dir="auto"><br></div><br><div class="gmail_quote"><div>---------- Forwarded message ---------<br>From: Machine Intelligence Community &lt;<a href="mailto:bumic@bu.edu" target="_blank">bumic@bu.edu</a>&gt;<br><br></div><div><span style="color:rgb(29,33,41);font-family:&quot;SF Optimized&quot;,system-ui,-apple-system,system-ui,&quot;.SFNSText-Regular&quot;,sans-serif;letter-spacing:-0.12px"><br></span><span style="color:rgb(29,33,41);font-family:&quot;SF Optimized&quot;,system-ui,-apple-system,system-ui,&quot;.SFNSText-Regular&quot;,sans-serif;font-size:14px;letter-spacing:-0.12px">Location: MIT 56-154</span><br style="color:rgb(29,33,41);font-family:&quot;SF Optimized&quot;,system-ui,-apple-system,system-ui,&quot;.SFNSText-Regular&quot;,sans-serif;font-size:14px;letter-spacing:-0.12px"><span style="color:rgb(29,33,41);font-family:&quot;SF Optimized&quot;,system-ui,-apple-system,system-ui,&quot;.SFNSText-Regular&quot;,sans-serif;font-size:14px;letter-spacing:-0.12px">Time: </span><span style="color:rgb(29,33,41);font-family:&quot;SF Optimized&quot;,system-ui,-apple-system,system-ui,&quot;.SFNSText-Regular&quot;,sans-serif;letter-spacing:-0.12px">Today 12/6/2017 @ </span><span style="color:rgb(29,33,41);font-family:&quot;SF Optimized&quot;,system-ui,-apple-system,system-ui,&quot;.SFNSText-Regular&quot;,sans-serif;font-size:14px;letter-spacing:-0.12px">5 PM</span><br style="color:rgb(29,33,41);font-family:&quot;SF Optimized&quot;,system-ui,-apple-system,system-ui,&quot;.SFNSText-Regular&quot;,sans-serif;font-size:14px;letter-spacing:-0.12px"><span style="color:rgb(29,33,41);font-family:&quot;SF Optimized&quot;,system-ui,-apple-system,system-ui,&quot;.SFNSText-Regular&quot;,sans-serif;font-size:14px;letter-spacing:-0.12px">The authors of the work on 3D adversarial examples Anish Athalye, Logan Engstrom, and Andrew Ilyas will be presenting tomorrow. Come thru!<br></span>Paper: <span style="font-family:Roboto,Helvetica,Arial,sans-serif"><a href="https://goo.gl/uay7UC" style="color:rgb(68,68,68);font-size:13px" target="_blank">https://goo.gl/uay7UC</a><font color="#1d2129"><br></font></span><font color="#1d2129" face="SF Optimized, system-ui, -apple-system, system-ui, .SFNSText-Regular, sans-serif"><span style="letter-spacing:-0.12px">TL;DR: </span></font><span style="color:rgb(68,68,68);font-family:Roboto,Helvetica,Arial,sans-serif;font-size:13px"><a href="https://goo.gl/Lncb84" target="_blank">https://goo.gl/Lncb84</a></span><br><div><font color="#1d2129"><span style="font-size:14px;letter-spacing:-0.12px">Abstract: Neural network-based classifiers parallel or exceed human-level accuracy on many common tasks and are used in practical systems. Yet, neural networks are susceptible to adversarial examples, carefully perturbed inputs that cause networks to misbehave in arbitrarily chosen ways. When generated with standard methods, these examples do not consistently fool a classifier in the physical world due to viewpoint shifts, camera noise, and other natural transformations. Adversarial examples generated using standard techniques require complete control over direct input to the classifier, which is impossible in many real-world systems. We introduce the first method for constructing real-world 3D objects that consistently fool a neural network across a wide distribution of angles and viewpoints. We present a general-purpose algorithm for generating adversarial examples that are robust across any chosen distribution of transformations. We demonstrate its application in two dimensions, producing adversarial images that are robust to noise, distortion, and affine transformation. Finally, we apply the algorithm to produce arbitrary physical 3D-printed adversarial objects, demonstrating that our approach works end-to-end in the real world. Our results show that adversarial examples are a practical concern for real-world systems.</span></font></div><div><font color="#1d2129"><span style="font-size:14px;letter-spacing:-0.12px"><br></span></font></div><div><font color="#1d2129"><span style="font-size:14px;letter-spacing:-0.12px"><img src="cid:1602c6097cb931b51fe1" alt="bumic_email_sig.png" style="width:230px;max-width:100%"><br></span></font></div></div><div>-- <br></div><div class="m_3109231746242235731m_8931691697203067116gmail_signature" data-smartmail="gmail_signature"><div>Boston University Machine Intelligence Community</div></div>
</div></div></div>