Qui est responsable du temps passé sur nos smartphones?

.
. ©Getty - DigitalVision Vectors
. ©Getty - DigitalVision Vectors
. ©Getty - DigitalVision Vectors
Publicité

Sommes-nous volés de notre attention? Face à des entreprises qui exploitent les faiblesses des utilisateurs, certains plaident pour éthique du numérique, dès la conception des applications.

Faire défiler notre fil facebook, enchaîner les vidéos sur youtube, choisir un bar parce que Yelp nous l'a recommandé... chaque jour nous passons des heures sur nos écrans. En moyenne, les 18-24 ans consultent leur smartphone 82 fois par jour. Un temps immense, passé à naviguer, rafraîchir, ”liker". Et que nous avons de plus en plus de mal à contrôler. Bref, nous sommes accros. Est-ce parce que nous serions dépendants, dispersés, abrutis par le numérique ? Plus que nos faiblesses, ces comportements montrent en fait une réussite ; celle des ingénieurs, designers, informaticiens de la Silicon Valley. Ils conçoivent des services et applications en sorte que nous y passions le plus de temps possible. Le but, capter nos données personnelles et, bien plus rare, donc plus disputé encore, notre attention.

Si on veut que quelqu’un ouvre un mail ou remplisse un formulaire, comment le concevoir pour que ce soit le cas. Ceux qui répondent à ces questions, ce sont les développeurs et designers. Nourris de ce qu'on appelle le "design de l'attention". Aux Etats-Unis, il a ses gourous. Il est même enseigné, comme au " Persuasive Tech Lab" de l’Université de Standford.

Publicité

Tous les services numériques qui remplissent nos smartphones sont pensés pour se rendre indispensables dans notre quotidien et influencer nos choix. Et cette logique atteint aussi les nouveaux environnements de travail.

Début avril, le New York Times a publié une longue et passionnante enquête sur la manière dont Uber et Lyft s’inspirent des sciences comportementales pour inciter les chauffeurs à agir dans l’intérêt de la plateforme - et au détriment du leur. Certes un conducteur peut en principe arrêter les courses dès qu'il le souhaite. Seulement en permanence, Uber l’incite à continuer, grâce à plusieurs mécanismes exploitant ses biais cognitifs. Par exemple en lui montrant, quelques instants avant qu’il ne termine une course, qu’une autre l’attend. C’est la logique Nextflix - attirer en montrant l’épisode à venir - appliquée à la conduite. Ou alors des notifications lui signalent les sommes qu’il perdrait en arrêtant sa journée. Et là c'est l’aversion de la perte, bien connue des sciences comportementales, qui les pousse à continuer.

Comment résister à l'addiction ?

Eteindre son smartphone, faire une cure sans Internet : on voit se multiplier ces incitations à la déconnexion. Autrement dit, à chacun d’être attentif. Seulement cette manière de renvoyer à un comportement personnel pose plusieurs problèmes : d'abord, la maitrise de soi n'est pas également partagée. Ensuite quelle chance a un individu seul face à des systèmes conçus par des organisations entières. La responsabilité n'est-elle pas du côté des concepteurs? Enfin, cette logique du tout ou rien, c'est un choix qui n'en est pas un. Voilà en tout cas ce qu'affirme Tristan Harris. Cet ingénieur américain connu pour être l'un des "repentis de la Silicon Valley" Il a quitté Google (comme il le raconte dans de longs articles dont l'un traduit ici) pour se consacrer à son Manifeste du temps bien employé, Time well spent. Son idée, labelliser des normes de conception qui ne reposent pas sur l'exploitation de notre dépendance. Autrement dit, encourager une conception éthique, ou l'éthique "by design". En France, la première conférence sur le sujet a rassemblée à l'ENS Lyon en mai dernier professionnels et chercheurs. Autour des solutions possibles alors même que ce n'est pas l'intérêt premier des entreprises.

De ce point de vue, une échéance va être intéressante à regarder : l'entrée en vigueur en mai prochain du règlement européen sur les données personnelles. Il oblige les entreprises à intégrer la protection des données dans le code informatique. C'est la "privacy by design". Une contrainte qui pourrait obliger le marché à s'adapter. Et plus largement, constituer la première pierre d'une conception éthique de nos services numériques.

L'équipe