Paso 3: rectificación 3D
Concretamente, utilizamos el sublibrary reconstrucción 3D nos ayuda en la obtención de información 3D. Esta librería nos permite tomar un par de imágenes y obtener puntos 3D en el espacio para cada píxel. Muy simplemente el algoritmo funciona como sigue:
1. encontrar las regiones de cada imagen que coincida con cada uno otro. Por ejemplo, del tema ojo izquierdo en cada cuadro.
2. calcular la cantidad de movimiento, distancia de pixel, que cada región se movió entre imágenes.
3. más una región se movió, el más cercano que es la cámara. Por lo tanto, conociendo mucho cada píxel se movió entre imágenes podemos llegar una ubicación 3D para cada punto en relación con los demás en la foto.
Hay algunas cosas a destacar en este proceso. Este algoritmo generalmente depende de saber muchas cosas sobre el mundo en el que las fotos fueron tomadas para venir para arriba con buena información dimensional tres. Nuestro enfoque a la creación de estos modelos 3D es nuevo y difícil porque estamos tratando de hacerlo sin mucho de este conocimiento sobre el mundo exterior. Es decir, las cosas más importantes que faltan son los intrínsecos y extrínsecos parámetros de la cámara . Cámara intrínseca tienen parámetros de ajuste para cosas como distorsión de la lente donde parámetros extrínsecos ajustan cosas como la cantidad exacta de distancia de la cámara se movió entre. Nuestros sistema (probablemente mal) hace suposiciones sobre ambos y por lo tanto no puede producir nubes de puntos muy precisos en el momento. Un área de mejora incluye definitivamente tratando de estimar estos parámetros mejor.
Las imágenes adjuntas muestran una representación 2D de nuestra nube de puntos donde el más blanco un pixel es el más cercano a la cámara que es.