Una posible solución que se me ocurre es reducir la resolución de la imagen a algo más manejable y luego “mapear” las anotaciones superpuestas y, por lo tanto, a alguna coordenada proporcional. Luego puede reasignar las proporciones a la resolución nativa de la imagen más grande al guardar, etc.
Además, puede dividir esta imagen en trozos / bloques de tamaños más pequeños y manejables y solo descargar y mostrar las partes que se están utilizando actualmente.
Ej. Trozos de imagen
- ¿Cuáles son algunos elementos adictivos que puedo incorporar en un juego de iOS?
- ¿Qué tan bien debo conocer C # para desarrollar juegos de Android e iOS en Unity?
- ¿Cuánta RAM tiene el iPad 2?
- ¿La programación en C es eficiente para crear aplicaciones para iOS?
- ¿Es posible permitir al usuario crear nuevas secciones y filas en una vista de tabla en mi aplicación Swift?
a B C
def
ghi
Si alguien se enfoca en ay anotando, solo puede mostrar a, b, d y e, que deberían ser mucho más pequeños que 5000 × 5000. Cada trozo ahora es efectivamente de alrededor de 1600 x 1600px. Por supuesto, puedes ir aún más pequeño. Piense en cómo su Google Maps carga una imagen ENORME del mundo como partes más pequeñas justo a tiempo.
¿Entender lo esencial?