1. Respect de la vie privée : des frontières mouvantes à redéfinir
L’intégration de la domotique suppose une surveillance accrue du résident, souvent consentie dans l’objectif de sécurisation (détecteurs de mouvement, caméras, ouvertures de portes…). Mais jusqu’où aller pour préserver l’intimité ?
-
Selon un sondage mené en 2023 par le collectif Handéo, 68 % des professionnels de santé interrogés estiment que les dispositifs domotiques empiètent « parfois » ou « souvent » sur la vie privée des résidents.
-
Certaines solutions privilégient des capteurs passifs (pression, vibration) plutôt que des dispositifs intrusifs (vidéosurveillance), et des architectures en « edge computing » (traitement local des données, sans transfert dans le cloud), afin de minimiser la collecte d’images ou de données identifiantes.
L’information et le recueil du consentement éclairé des résidents ou de leurs représentants légaux constituent ici un impératif réaffirmé à plusieurs reprises par la HAS (HAS).
2. Autonomie et consentement : le paradoxe de la protection
La domotique, en cherchant à compenser la dépendance, peut involontairement imposer des comportements standardisés. Les alertes automatiques, par exemple, poussent parfois les professionnels à intervenir « à la moindre anomalie », ce qui génère une forme de surveillance constante susceptible de déresponsabiliser ou d’angoisser certains résidents.
-
Des études menées au Canada et en France (source : Gérontologie et Société, 2022) alertent sur l’importance de laisser l’initiative au résident, notamment pour le contrôle de certains équipements (stores, lumières, appels à l’aide), sans automatisme systématique.
-
Le recueil périodique du retour d’expérience des résidents sur les dispositifs mis en place permet d’ajuster le niveau d’automatisation, en restant au plus près des besoins réels.
3. Responsabilité des professionnels et biais liés aux algorithmes
Confier tout ou partie de la surveillance à des systèmes automatiques soulève la question de la responsabilité en cas d’incident. Un algorithme peut-il se tromper ? Oui, notamment quand il interprète mal un signal — chutes fausses positives, détections absentes.
-
En 2019, la revue The Lancet Digital Health signalait que jusqu’à 12 % des alertes de détection de chute relevaient d’un « faux positif », entraînant des interventions inutiles des équipes et parfois du stress chez les résidents.
-
La transparence des critères d’analyse et l’amélioration continue des algorithmes deviennent alors des impératifs éthiques autant que techniques.
-
L’obligation demeure pour les équipes de ne pas s’en remettre aveuglément à la technologie, mais de faire appel à leur jugement clinique, pour éviter la déshumanisation de l’accompagnement.