<div>All,</div><div> </div><div>We have 3 exciting talks scheduled for the next 3 weeks.  Talks will be at 111 Cummington St room MCS137.</div><div> </div><div>1) We start with Shai Halevi from next Tuesday at 11AM, talking about fully homomorphic encryption.</div>


<div> </div>
<div>2) The following Tuesday 11AM, we have Shyam Gollakota from MIT, talking about his SIGCOMM&#39;12 best paper on medical device security.</div><div> </div><div>3) After that, we have David Xiao visiting us from France, and he&#39;ll take about combining ideas from differential privacy and mechanism design.  He&#39;ll be speaking on Thursday 11AM due to travel constraints.</div>



<div> </div><div>Lunch provided as usual. Abstracts below. See you all next week!</div><div> </div><div>Sharon</div><div> </div><div>*************************************************************************</div><div><br clear="all">



Shai Halevi. IBM Research. Fully Homomorphic Encryption with Polylog Overhead<br>Tuesday February 14, 11AM<br> <br>Description:</div><p>Fully Homomorphic Encryption with Polylog Overhead<br>Craig Gentry, Shai Halevi, Nigel Smart</p>



<p>We show that homomorphic evaluation of (wide enough) arithmetic<br>circuits can be accomplished with only polylogarithmic overhead.<br>Namely, we present a construction of fully homomorphic encryption<br>(FHE) schemes that for security parameter $\secparam$ can evaluate<br>



any width-$\Omega(\secparam)$ circuit with $t$ gates in time<br>$t\cdot polylog(\secparam)$.</p><p>To get low overhead, we use the recent batch homomorphic evaluation<br>techniques of Smart-Vercauteren and Brakerski-Gentry-Vaikuntanathan,<br>



who showed that homomorphic operations can be applied to &quot;packed&quot;<br>ciphertexts that encrypt vectors of plaintext elements. In this work,<br>we introduce permuting/routing techniques to move plaintext elements<br>



across these vectors efficiently. Hence, we are able to implement<br>general arithmetic circuit in a batched fashion without ever needing to<br>&quot;unpack&quot; the plaintext vectors.</p><p>We also introduce some other optimizations that can speed up<br>



homomorphic evaluation in certain cases. For example, we show how to<br>use the Frobenius map to raise plaintext elements to powers of $p$ at<br>the &quot;cost&quot; of a linear operation.more detailsť  copy to my calendar</p>



<p><br>*************</p><p>Shyamnath Gollakota, MIT. Medical device security<br>Tuesday, February 21, 11:00am </p><p>**************</p><p>David Xiao, LIAFA France. Privacy, incentives, and truthfulness.<br>Thursday, March 1, 11AM</p>



<p>Privacy has become an ever more pressing concern as we<br>conduct more and more of our lives in public forums such as the<br>Internet. One privacy question that has received much study is how a<br>database curator may output &quot;sanitized&quot; data that does not reveal too<br>



much information about any particular individual.  This criteria has<br>been formalized as differential privacy, proposed originally by Dwork<br>et al. (TCC &#39;06 and ICALP &#39;06), which captures the idea that &quot;the<br>



presence or absence of any individual&#39;s data does not change the<br>distribution of the sanitized data by much&quot;. This guarantee has been<br>interpreted to mean that individuals should be comfortable revealing<br>



their information, since their participation barely changes the<br>output.</p><p>In this talk, we advocate combining the study of privacy in<br>conjunction with game theory, since individuals need to be motivated<br>by some incentive in order to part with their private information.  We<br>



focus on the notion of truthfulness, which says that a mechanism<br>should be designed so that it is in the individuals&#39; own interest to<br>give their true information.  We show that there exist games for which<br>differentially private mechanisms, in particular the exponential<br>



mechanism of McSherry and Talwar (FOCS &#39;07), do not motivate the<br>individuals to participate truthfully. On the positive side, we show<br>that a wide class of games do admit differentially<br>private, truthful, and efficient mechanisms.</p>



<div>Finally, we explore the possibility of tradeoffs between utility and<br>privacy.  This is because individuals may be willing to give up some<br>privacy if they receive enough utility from a game, and vice versa. We<br>



show that, under a natural measure of information cost, certain<br>differentially private mechanisms such as releasing a differentially<br>private histogram or a differentially private synthetic database may<br>reveal so much information that individuals would rather suffer the<br>



consequences of lying rather than have their information published</div><div><br>-- <br>Sharon Goldberg<br>Computer Science, Boston University<br><a href="http://www.cs.bu.edu/~goldbe" target="_blank">http://www.cs.bu.edu/~goldbe</a><br>




</div>