Proporcionando las mismas especificaciones, ¿tendrá un iOS o Android un punto de referencia más alto y un rendimiento de la vida real? ¿Por qué?

Si suponemos que ambas aplicaciones están escritas en POSIX C, la aplicación de iOS tiene un contenedor objetivo / C, la aplicación de Android tiene un contenedor NDK y ambos dispositivos usan el mismo hardware, entonces los puntos de referencia serán casi idénticos.

Pero primero, el hardware no es lo mismo. El HW afectará el rendimiento, por supuesto. iOS y iPhone HW parece procesar gráficos mucho más rápido que Android. Parte de esto es probablemente el HW en sí, y el resto es que iOS es bastante bueno para descargar más procesamiento de GUI a la GPU.

En segundo lugar, la mayoría de las aplicaciones de Android usan el ADK basado en Java, no el NDK. Java es más lento que C (u objC, que es esencialmente lo mismo). Esto se enfatiza también por el hecho de que la recolección de basura de iOS (ARC) parece ser mucho más rápida que la de Dalvik (Android JVM).

Como regla general, puede suponer que una aplicación iOS bien escrita se ejecutará de manera más eficiente que una aplicación Android bien escrita.

iOS, porque Android es esencialmente una capa sobre JAVA y un hardware necesita más tiempo para procesarlo.