Menu
Panier d’achat

Aucun produit dans le panier.

La résolution et la précision des capteurs

Explication de deux concepts clés de l'automatisation industrielle à l'aide de capteurs : la résolution et la précision.

Dans cet article, nous aimerions parler de certains termes relatifs aux capteurs. Ceux-ci sont souvent utilisés de manière interchangeable, généralement à tort. Nous parlons ici de spécifications très importantes des capteurs, qui sont déterminantes pour leurs performances. Il s'agit de la résolution et de la précision des capteurs.

La résolution des capteurs

La résolution du capteur est utile dans cette application.

Le terme résolution est souvent associé à la dimension. Cependant, lorsqu'il s'agit de capteurs, la résolution prend une toute autre signification. En termes simples, la résolution est le plus petit changement possible qu'un capteur peut détecter. Pour un laser de positionnement, par exemple, il s'agit d'un décalage ou d'un écart de position.

Un capteur à faible résolution détecte et indique le changement uniquement en centimètres entiers. Si vous utilisez un capteur à plus haute résolution, le changement peut être indiqué en millimètres. Bien entendu, cela n'est utile que si l'application l'exige.

L'application est donc importante pour la résolution requise. Une application critique telle que le contrôle de la position des composants sur une carte de circuit imprimé, comme dans l'image de droite, nécessite une résolution élevée. En d'autres termes, les capteurs à haute résolution ont une tension minimale de commutation plus faible.

La précision des capteurs

Lors du choix d'un capteur, on se pose souvent la question suivante : quelle est sa précision ? On pense rapidement à la différence entre la distance mesurée et la distance réelle. Dans le domaine des capteurs, nous connaissons deux types de précision : la précision absolue et la précision de répétition. 

L'exactitude absolue est ce que l'on entend souvent lorsqu'on parle de précision. La précision absolue est donc l'écart d'une seule mesure. Pensez à la mesure de la distance qui sépare un camion d'un quai de chargement. Pour éviter une collision il est important de savoir si, en mesurant une distance de 50 cm par rapport au camion, le capteur n'indique pas qu'il reste encore 1 mètre de distance. Si le capteur a une précision absolue de ±10 cm, il indiquera une valeur comprise entre 40 et 60 cm dans l'exemple donné.

La précision de répétition est la différence entre deux mesures. Si la première mesure indique 101 mm et qu'une deuxième mesure, effectuée exactement dans les mêmes conditions, donne 102 mm, la précision de répétition est notée ±1 mm. Dans de nombreuses applications (mais certainement pas toutes), la précision de répétition est plus importante.

Un capteur de haute précision empêche les camions de s'arrêter trop tôt ou trop tard au quai de chargement.

Mais...

Toutefois, il ne suffit pas de connaître ces deux valeurs pour choisir le bon capteur. Par nature, les gens veulent ce qu'il y a de mieux et il est donc facile d'opter pour la meilleure répétabilité et la meilleure précision absolue possible. Pour donner un exemple d'application où ce n'est pas le meilleur choix, on peut penser à la mesure de l'épaisseur d'un produit sur une bande transporteuse à l'aide d'un capteur de type laser de déplacement.

Si un laser est utilisé avec une précision absolue ou répétée de ±0,01 mm, il ne peut pas fonctionner le long ou au-dessus d'une bande transporteuse parce qu'il vibre constamment, ce qui donne une déviation d'au moins 1 mm, par exemple. Si toutes les mesures sont aussi précises à 0,01 mm près, cela signifie que vous mesurez et détectez systématiquement les erreurs sur une bande transporteuse vibrante. 

Une précision trop élevée dans une application n'est pas utile lorsque les objets vibrent beaucoup et qu'il faut détecter le moindre mouvement.
Nos spécialistes vous aideront à

Appeler directement (en semaine entre 8h30 et 17h)

Posez directement une question sur votre demande