<div dir="ltr"><div class="gmail_quote"><div dir="ltr"><div><span>Just a reminder for seminar tomorrow with </span>Raef Bassily, who will tell us about coupled-worlds privacy. Seminar and lunch will be at the usual time (Wednesday 10AM) and abstract is below.</div>






<div> </div><div>The following week <span name="Bhavana Kanukurthi">Bhavana Kanukurthi from UCLA will tell us </span>about locally-updatable codes.<span name="Bhavana Kanukurthi">   The talk will be </span>at an unusual time -- Tuesday at 10AM (which is a &quot;Monday schedule&quot; at BU).  </div>




<div> </div>
<div>
 Sharon<br><br> <span>BUsec</span> Calendar:  <a href="http://www.bu.edu/cs/busec/" target="_blank"><font color="#0066cc">http://www.bu.edu/cs/<span>busec</span>/</font></a><br> <span>BUsec</span> Mailing list:  <a href="http://cs-mailman.bu.edu/mailman/listinfo/busec" target="_blank"><font color="#0066cc">http://cs-mailman.bu.edu/</font><font color="#0066cc">mailman/listinfo/<span>busec</span></font></a><br>






  How to get to BU from MIT:  Try the CT2 bus or MIT&#39;s &quot;Boston Daytime<br> Shuttle&quot; <a href="http://web.mit.edu/facilities/transportation/shuttles/daytime_boston.html" target="_blank"><font color="#0066cc">http://web.mit.edu/facilities/</font><font color="#0066cc">transportation/shuttles/</font><font color="#0066cc">daytime_boston.html</font></a><br>






<br> </div><div>Title: Coupled-Worlds Privacy: Exploiting Adversarial Uncertainty in Statistical Data Privacy</div><div>Speaker:  Raef Bassily, Penn State University.</div><div>Wednesday Oct 2, 10AM</div><div>MCS137</div>






<div> </div><div> Abstract: <br>In this talk, I will present a new framework for defining privacy in statistical databases that enables reasoning about and exploiting adversarial uncertainty about the data. Roughly, our framework requires indistinguishability of the real world in which a mechanism is computed over the real dataset, and an ideal world in which a simulator outputs some function of a “scrubbed” version of the dataset (e.g., one in which an individual user’s data is removed). In each world, the underlying dataset is drawn from the same distribution in some class (specified as part of the definition), which models the adversary’s uncertainty about the dataset.</div>






<div> </div><div>I will argue that our framework provides meaningful guarantees in a broader range of settings as compared to previous efforts to model privacy in the presence of adversarial uncertainty. I will also present several natural, “noiseless” mechanisms that satisfy our definitional framework under realistic assumptions on the distribution of the underlying data. </div>






<div> </div><div>Joint work with Adam Groce, Jonathan Katz, and Adam Smith, appearing in FOCS 2013<br clear="all"></div><div>****</div><div>Title: Locally Updatable and Locally Decodable Codes<br></div><div>Speaker: Bhavana <span name="Bhavana Kanukurthi">Kanukurthi, UCLA </span></div>




<div><span name="Bhavana Kanukurthi">Tuesday October 8, 2013, 10AM</span></div><div><span name="Bhavana Kanukurthi">MCS137</span></div></div>
</div> <br>Abstract:<br>We introduce the notion of locally updatable and locally decodable codes (LULDCs). In addition to having low decode locality, such codes allow us to update a codeword (of a message) to a codeword of a different message, by rewriting just a few symbols. While, intuitively, updatability and error-correction seem to be contrasting goals, we show that for a suitable, yet meaningful, metric (which we call the Prefix Hamming metric), one can construct such codes. Informally, the Prefix Hamming metric allows the adversary to arbitrarily corrupt bits of the codeword subject to one constraint -- he does not corrupt more than a $\delta$ fraction of the $t$ ``most-recently changed&quot; bits of the codeword (for all $1 \leq t \leq n$, where $n$ is the length of the codeword).<br>


<br>Our results are as follows. First, we construct binary LULDCs for messages in ${0,1}^k$ with constant rate, update locality of $O(log^2 k)$, and read locality of $O(k^\epsilon)$ for any constant $\epsilon&lt;1$. Next, we consider the case where the encoder and decoder share a secret state and the adversary is computationally bounded. Here too, we obtain local updatability and decodability for the Prefix Hamming metric. Furthermore, we also ensure that the local decoding algorithm never outputs an incorrect message -- even when the adversary can corrupt an arbitrary number of bits of the codeword. We call such codes locally updatable locally decodable-detectable codes (LULDDCs) and obtain dramatic improvements in the parameters (over the information-theoretic setting). Our codes have constant rate, an update locality of $O(log k)$ and a read locality of<br>


$O(\lambda log^2 k)$, where $\lambda$ is the security parameter.<br><br>Finally, we show how our techniques apply to the setting of dynamic proofs of retrievability (DPoR) and present a construction of this primitive with better parameters than existing constructions. In particular, we construct a DPoR scheme with linear storage, $O(log k)$ write complexity, and $O(\lambda log k)$ read and audit complexity.<br>


 <br>This is joint work with Nishanth Chandran and Rafail Ostrovsky.<br><a href="http://www.cs.bu.edu/~goldbe" target="_blank"></a>
</div>