¿Es posible que Apple mejore su aplicación de Mapas creando modelos vectoriales personalizados para árboles para que no se entrelacen y distorsionen las carreteras? ¿O hay algo que impide que Apple haga eso?

Puedo emitir un gran problema en su solución propuesta, al menos a partir del estado actual de la técnica. para hacerlo, probablemente deba confiar en la edición artesanal de una gran cantidad de datos.

El mundo es muy grande y estas imágenes tienen una resolución de aproximadamente 10 cm por píxel (solo una suposición). Esta es una gran cantidad de datos para procesar. El enfoque que utiliza Apple en este momento parece ser similar a la correlación estéreo: siempre que tengan múltiples puntos de vista y no les importe tener demasiada precisión que pueda procesarlo fácilmente de una manera automatizada:

  1. coleccionar imágenes con múltiples puntos de vista
  2. Hacer una esterecorrilación escasa en puntos destacados específicos (es decir, fácilmente identificados)
  3. generar modelo crudo en una cuadrícula

Las 2 cosas que reducen la calidad de su modelo, pero también lo hacen eficiente, son la identificación de puntos sobresalientes en varias imágenes (un árbol oscuro se parece mucho a una carretera bien iluminada) y la resolución de la cuadrícula, que se basa en qué Veo cuando el mapa se carga es relativamente escaso en el modelo de Apple. Por supuesto, podría hacer una cuadrícula con resolución dinámica (más puntos de datos donde el relieve es más complejo), pero esto requeriría algoritmos más complejos y no evitaría errores.

De hecho, otro problema especialmente para los árboles es doble:

  1. no son planos ni tampoco sólidos, lo que significa que su forma es compleja para identificarlos correctamente en imágenes de baja resolución (10 cm es bueno para un satélite pero aún es bastante baja) y mostrar correctamente
  2. ellos mueven. Las imágenes utilizadas no son temporalmente concurrentes y, lo que es peor, a veces pueden estar separadas por semanas (porque las nubes pueden haber ofuscado parte de ella en el primer pasado, por ejemplo).
  3. (Edición relacionada con su comentario de la pregunta): finalmente, la parte del árbol que es más estrecha (el tronco) está debajo del árbol que es difícil de ver desde el espacio. por lo tanto, el sistema no puede saber realmente que el árbol (o cualquier cosa) es más angosto donde ninguna imagen puede ver.

Todo este problema hace que sea muy difícil automatizar adecuadamente dicho proceso y requeriría alguna edición humana en la etapa actual. Esto representaría un costo tremendo y, aunque el abastecimiento público podría ser una solución, este proceso aún requeriría un tremendo impacto en el procesamiento de los comentarios de los usuarios.

Google también tiene problemas similares con Street View, aunque menos fuertes que:

  1. usan una secuencia de imágenes que están muy cerca temporalmente (un automóvil no salta de un lugar a otro)
  2. tienen mejores datos de entrada (la imagen desde el suelo tiene una mejor resolución por píxel)
  3. su modelo no es realmente 3D sino una sucesión de burbujas POV. Esto es mucho más fácil de hacer.
  4. Lo han hecho durante mucho tiempo (es decir, tuvieron más oportunidades de “corregir” algunas muestras malas).

¡Aún puede encontrar imágenes de Google Street View en el momento en que la línea del tablero en el medio del camino no está alineada correctamente o los alicates voladores gigantes atacan West Bromwich! o incluso MARCO> Glitch Road -.