<div dir="ltr"><div>All,</div><div> </div><div><span>Our privacy year continues with a seminar</span> by Raef Bassily, a postdoc at Penn State who is visiting BU this year. Seminar and lunch will be at the usual time (Wednesday 10AM) and abstract is below.</div>




<div> </div><div>The following week we will have a talk by <span name="Bhavana Kanukurthi">Bhavana Kanukurthi from UCLA. Title and abstract TBA.  The talk will be </span>at an unusual time -- Tuesday at 10AM (which is a &quot;Monday schedule&quot; at BU).  </div>


<div> </div>
<div>
 Sharon<br><br> <span>BUsec</span> Calendar:  <a href="http://www.bu.edu/cs/busec/" target="_blank"><font color="#0066cc">http://www.bu.edu/cs/<span>busec</span>/</font></a><br> <span>BUsec</span> Mailing list:  <a href="http://cs-mailman.bu.edu/mailman/listinfo/busec" target="_blank"><font color="#0066cc">http://cs-mailman.bu.edu/</font><font color="#0066cc">mailman/listinfo/<span>busec</span></font></a><br>




  How to get to BU from MIT:  Try the CT2 bus or MIT&#39;s &quot;Boston Daytime<br> Shuttle&quot; <a href="http://web.mit.edu/facilities/transportation/shuttles/daytime_boston.html" target="_blank"><font color="#0066cc">http://web.mit.edu/facilities/</font><font color="#0066cc">transportation/shuttles/</font><font color="#0066cc">daytime_boston.html</font></a><br>




<br> </div><div>Title: Coupled-Worlds Privacy: Exploiting Adversarial Uncertainty in Statistical Data Privacy</div><div>Speaker:  Raef Bassily, Penn State University.</div><div>Wednesday Oct 2, 10AM</div><div>MCS137</div>




<div> </div><div> Abstract: <br>In this talk, I will present a new framework for defining privacy in statistical databases that enables reasoning about and exploiting adversarial uncertainty about the data. Roughly, our framework requires indistinguishability of the real world in which a mechanism is computed over the real dataset, and an ideal world in which a simulator outputs some function of a “scrubbed” version of the dataset (e.g., one in which an individual user’s data is removed). In each world, the underlying dataset is drawn from the same distribution in some class (specified as part of the definition), which models the adversary’s uncertainty about the dataset.</div>




<div> </div><div>I will argue that our framework provides meaningful guarantees in a broader range of settings as compared to previous efforts to model privacy in the presence of adversarial uncertainty. I will also present several natural, “noiseless” mechanisms that satisfy our definitional framework under realistic assumptions on the distribution of the underlying data. </div>




<div> </div><div>Joint work with Adam Groce, Jonathan Katz, and Adam Smith, appearing in FOCS 2013<br clear="all"></div><div>****</div><div>(TBA)</div><div>Speaker: Bhavana <span name="Bhavana Kanukurthi">Kanukurthi, UCLA </span></div>


<div><span name="Bhavana Kanukurthi">Tuesday October 8, 2013, 10AM</span></div><div><span name="Bhavana Kanukurthi">MCS137</span></div></div>