Par Arnaud Bailly à Nantes le mardi 10 juin

A l'ère du "big data", du "cloud" et des tera-octets de données, les systèmes fonctionnent de plus en plus en "cluster" ce qui permet d'accroître la fiabilité du système et d'améliorer ses temps de réponse en répartissant et redondant les sous-systèmes et les données. Mais comment s'assurer qu'un tel cluster est cohérent ? Peut-on vérifier qu'il possède des "bonnes propriétés" assurant que les données seront toujours fiables ?

Cette présentation se veut une introduction par la pratique au problème de la cohérence des données réparties grâce à jepsen (http://github.com/aphyr/jepsen), un outil permettant de tester de telles bases de données.

Commentaires