<div dir="ltr"><div>Since most of our group is still away in warm Spanish-speaking countries, seminar this week will be at an UNUSUAL TIME: Thursday at 11am. &nbsp;Ben Fuller will be talking about his PhD proposal: key derivation from noisy sources. We will have lunch in the lab after the talk.&nbsp;</div>

<div><br></div><div>The following week, we have a talk by Jamie Morgenstern (at the usual time) as part of our privacy year series.</div><div><br></div><div>See you there!</div><div><br></div><div>Sharon</div><div><br></div>

<div>&nbsp;BUsec Calendar: &nbsp;<a href="http://www.bu.edu/cs/busec/">http://www.bu.edu/cs/busec/</a></div><div>&nbsp;BUsec Mailing list: <a href="http://cs-mailman.bu.edu/mailman/listinfo/busec">http://cs-mailman.bu.edu/mailman/listinfo/busec</a></div>

<div>&nbsp;How to get to BU from MIT: The CT2 bus or MIT&#39;s &quot;Boston Daytime Shuttle&quot; <a href="http://web.mit.edu/facilities/transportation/shuttles/daytime_boston.html">http://web.mit.edu/facilities/transportation/shuttles/daytime_boston.html</a></div>

<div><br></div><div>****</div><div><br></div><div>Key Derivation From Noisy Sources With More Errors Than Entropy</div><div>Ben Fuller. BU.&nbsp;</div><div>Thu, April 3, 11am &ndash; 12pm</div><div>MCS 137</div><div><br></div><div>
(This is also Ben&#39;s PhD proposal!)</div>
<div><br></div><div>Fuzzy extractors convert a noisy source of entropy into a consistent uniformly-distributed key. In the process of eliminating noise, they lose some of the entropy of the original source&mdash;in the worst case, as much as the logarithm of the number of correctable error patterns. We call what is left after this worst-case loss the minimum usable entropy. Unfortunately, this quantity is negative for some sources that are important in practice. Most known approaches for building fuzzy extractors work in the worst case and cannot be used when the minimum usable entropy is negative.</div>

<div><br></div><div>We construct the first fuzzy extractors that work for a large class of distributions that have negative minimum usable entropy. Their security is computational. They correct Hamming errors over a large alphabet. In order to avoid the worst-case loss, they necessarily restrict distributions for which they work.</div>

<div><br></div><div>Our first construction requires high individual entropy of a constant fraction of symbols, but permits symbols to be dependent. Our second construction requires a constant fraction of symbols to have a constant amount of entropy conditioned on prior symbols. The constructions can be implemented efficiently based on number-theoretic assumptions or assumptions on cryptographic hash functions.</div>

<div><br></div><div>Joint work with Ran Canetti, &nbsp;Omer Paneth, and Leonid Reyzin.</div><div><br></div><div>***</div><div><br></div><div>Privacy-Preserving Public Information for Sequential Games</div><div>Jamie Morgenstern, CMU</div>

<div>Wed, April 9, 10am &ndash; 11:30am</div><div>MCS137</div><div><br></div><div><br></div><div>&nbsp;In settings with incomplete information, players can find it</div><div>&nbsp; difficult to coordinate to find states with good social welfare. For</div>

<div>&nbsp; example, in financial settings, if a collection of financial firms</div><div>&nbsp; have limited information about each other&#39;s strategies, some large</div><div>&nbsp; number of them may choose the same high-risk investment in hopes of</div>

<div>&nbsp; high returns. While this might be acceptable in some cases, the</div><div>&nbsp; economy can be hurt badly if many firms make investments in the same</div><div>&nbsp; risky market segment and it fails. One reason why many firms might</div>

<div>&nbsp; end up choosing the same segment is that they do not have</div><div>&nbsp; information about other firms&#39; investments (imperfect information</div><div>&nbsp; may lead to `bad&#39; game states). Directly reporting all players&#39;</div>

<div>&nbsp; investments, however, raises confidentiality concerns for both</div><div>&nbsp; individuals and institutions.</div><div><br></div><div>&nbsp; In this paper, we explore whether information about the game-state</div><div>&nbsp; can be publicly announced in a manner that maintains the privacy of</div>

<div>&nbsp; the actions of the players, and still suffices to deter players from reaching bad game-states. We show that in many games of interest, it is possible for players to avoid these bad states with the help of \emph{privacy-preserving, publicly-announced information}. We model behavior of players in this imperfect information setting in two ways -- greedy and undominated strategic behaviours, and we prove guarantees on social welfare that certain kinds of privacy-preserving information can help attain. Furthermore, we design a counter with improved privacy &nbsp;guarantees under continual observation.</div>

<div><br></div><div>Joint work with Avrim Blum, Adam Smith, and Ankit Sharma</div><div><br></div></div>