A video pose tracking system and method

G - Physics – 06 – T

Patent

Rate now

  [ 0.00 ] – not rated yet Voters 0   Comments 0

Details

G06T 7/00 (2006.01) A61B 19/00 (2006.01) G06T 7/20 (2006.01)

Patent

CA 2487127

A measurement system for tracking the pose of an object displaceable in a coordinate reference frame, such as a three dimensional coordinate system. The system comprises a predefined physical marker (4) adapted for rigidly coupling to the object (1). The marker can be two or three dimensional in shape. The marker includes a visible target pattern (22) with a series of contrast regions for providing at least two distributed feature points (FP). The contrast regions include an arrangement of alternating dark and bright regions defining an intensity saddle point at their intersection. Each feature point is located at a respective intensity saddle point. The system also has an optical sensor assembly (2) for generating a pair of digital images of the target pattern containing the feature points, wherein the pair of images generated are from dissimilar viewing angles. The system also has an identifier for testing the pixels of the digital images to determine the spatial location in the reference frame for each of the feature points of the target pattern. A marker template including a set of reference characteristics is used to uniquely define a pose relationship between the features points. Further, a processor is used for comparing the determined spatial locations of the feature points to the set of reference characteristics to confirm the recognition of the predefined marker. A method is also described to identify the intensity saddles contained in the digital images.

Cette invention se rapporte à un système de mesure servant à suivre la pose d'un objet pouvant se déplacer dans un cadre de référence de coordonnées, tel qu'un système de coordonnées tridimensionnel. Ce système comprend un marqueur physique prédéfini destiné à être couplé de façon rigide à l'objet. Le marqueur peut être de forme bidimensionnelle ou tridimensionnelle. Le marqueur comprend un motif cible visible avec une série de zones de contraste destinées à former au moins deux points de traits distribués. Les zones de contraste comportent un agencement de zones sombres et claires alternées définissant un point-selle d'intensité à leur intersection. Chaque point de trait est situé sur un point-selle d'intensité respectif. Ce système comprend également un ensemble capteur optique destiné à générer une paire d'images numériques du motif cible contenant les points de traits, cette paire d'images ainsi générées étant visible à partir d'angles de vision dissemblables. Ce système comprend également un identificateur permettant de tester les pixels des images numériques afin de déterminer la position spatiale dans le cadre de référence pour chacun des points de traits du motif cible. Un modèle de marqueur contenant un ensemble de caractéristiques de référence est utilisé pour définir de façon unique une relation de pose entre les points de traits. En outre, un processeur est utilisé pour comparer les positions spatiales déterminées des points de traits avec l'ensemble des caractéristiques de référence, afin de confirmer la reconnaissance du marqueur prédéfini. Un procédé est également décrit pour identifier les points-selles d'intensité contenus dans les images numériques.

LandOfFree

Say what you really think

Search LandOfFree.com for Canadian inventors and patents. Rate them and share your experience with other people.

Rating

A video pose tracking system and method does not yet have a rating. At this time, there are no reviews or comments for this patent.

If you have personal experience with A video pose tracking system and method, we encourage you to share that experience with our LandOfFree.com community. Your opinion is very important and A video pose tracking system and method will most certainly appreciate the feedback.

Rate now

     

Profile ID: LFCA-PAI-O-1461084

  Search
All data on this website is collected from public sources. Our data reflects the most accurate information available at the time of publication.