<div dir="ltr">FYI:  A talk on differential privacy at BU CS&#39;s theory seminar, this Friday.<br><br><div><div class="gmail_quote">---------- Forwarded message ----------<br>From: <b class="gmail_sendername">Steve Homer</b> <span dir="ltr">&lt;<a href="mailto:homer@cs.bu.edu">homer@cs.bu.edu</a>&gt;</span><br>Date: Wed, Oct 8, 2014 at 5:41 PM<br>Subject: Talk by Kamalika Chaudhuri, October 10, 2:00 in Hariri<br>To: Steve Homer &lt;<a href="mailto:homer@cs.bu.edu">homer@cs.bu.edu</a>&gt;<br>Cc: Nora Conroy &lt;<a href="mailto:conroynm@cs.bu.edu">conroynm@cs.bu.edu</a>&gt;<br><br><br><br>
<br>
<br>
<br>
               Boston University Friday Theory Seminar<br>
<br>
               Kamalika Chaudhuri on October 10, 2:00<br>
<br>
<br>
On Friday, October 10 at 2:00,  Kamalika Chaudhuri (UCSD)<br>
will speak on, &quot;Challenges in Differentially-Private Data Analysis.&quot;<br>
<br>
The talk is in the Hariri Inisitute Conference Room (Rm 180) at 111 Cummington Street.<br>
Refreshments at 1:50<br>
<br>
 Abstract:<br>
<br>
Machine learning algorithms increasingly work with sensitive information on individuals, and hence the problem of privacy-preserving data analysis --<br>
how to design data analysis algorithms that operate on the sensitive data<br>
of individuals while still guaranteeing the privacy of individuals in<br>
the data-- has achieved great practical importance. In this<br>
talk, we address two problems in differentially private data analysis.<br>
<br>
First, we address the problem of privacy-preserving classification, and<br>
present an efficient classifier which is private in the<br>
differential privacy model of Dwork et al. Our classifier works in the<br>
ERM (empirical loss minimization) framework, and includes privacy<br>
preserving logistic regression and privacy preserving support<br>
vector machines. We show that our classifier is private, provide<br>
analytical bounds on the sample requirement of our classifier,<br>
and evaluate it on real data. We next address the question of differentially<br>
private statistical estimation. We draw a concrete connection between differential privacy, and gross error sensitivity, a measure of robustness of a statistical estimator, and show how these two notions are quantitatively<br>
related.<br>
<br>
Based on joint work with Claire Monteleoni (George Washington University), Anand Sarwate (Rutgers University), and Daniel Hsu (Columbia University).<br>
<br>
Bio:<br>
<br>
Kamalika Chaudhuri is an Assistant Professor in Computer Science and Engineering at UC San Diego. She received her PhD from the University of California at Berkeley in 2007, and was a postdoctoral researcher at UC San Diego from 2007-2010. Her research is<br>
on the theoretical foundations of machine learning, and she is interested in a variety of topics including unsupervised learning, confidence in prediction, and privacy-preserving machine learning. She is the recipient of an NSF CAREER Award in 2013.<br>
<br>
<br>
<br>
</div><br><br clear="all"><br>-- <br>Sharon Goldberg<br>Computer Science, Boston University<br><a href="http://www.cs.bu.edu/~goldbe" target="_blank">http://www.cs.bu.edu/~goldbe</a>
</div></div>