Les cookies assurent le bon fonctionnement de nos services. En utilisant ces derniers, vous acceptez l'utilisation des cookies.
Latence applicative et API en streaming | Human Talks
- Le Cerveau humain réagit en moins de 500ms
- Le cerveau humain attends une reactivité en moins de 500ms
- Résultat : dans la fenêtre de 500ms à 2/3 seconde, 100 ms de latence répresente 1% du CA en moins et 5% de pages vues en moins
- Le mobile est un challenge car sa latence réseau est de 100 à 150ms versus 20 à 40ms pour les lignes fixes
- De plus il y a une plus grande place laissé aux données dynamiques (réseaux sociaux, pub, geoloc, état de stock, resources sharing...)
- donc il faut sortir de la requête classique HTTP qui surcharge les serveurs et les mobiles
- comme le font google, twitter, amazon, netflix, ...
=> protocole / standard de push ou de streaming
- Ce pourquoi nous lançons streamdata.io, un proxy as a service pour transformer une API poll en push sans code serveur
Commentaires