La incorporación de más características a un vector de características, que se alimenta aún más a un clasificador clásico de aprendizaje automático no necesariamente aumenta la precisión de la clasificación. La razón principal es que las características agregadas pueden no ser útiles y, por lo tanto, no ayudan al clasificador a distinguir entre las clases.
Si el vector de características se sobrecarga con características inútiles o redundantes, la precisión disminuirá ya que el clasificador no podrá converger a una solución óptima. Este aumento da como resultado un espacio de características extremadamente alta dimensional. En tales espacios de alta dimensión, los algoritmos clásicos de aprendizaje automático, como SVM o KNN, son casi intratables con respecto al entrenamiento. Además, el número de muestras de entrenamiento es mucho menor que la dimensionalidad del espacio de características, al menos en un orden de magnitud. Finalmente, la extracción de características de una estructura de cuadrícula densamente muestreada conduce a un alto grado de multicolinealidad.
Para sortear este problema, los métodos de reducción de dimensionalidad se pueden usar para seleccionar las características que mejor representan las clases. La regresión parcial de mínimos cuadrados ha demostrado ser extremadamente efectiva para lo mismo. Sin embargo, hay muchos otros métodos que se pueden usar como PCA, LDA, FDA, etc.
- ¿Hay alguna manera de ejecutar una aplicación dentro de una aplicación?
- Cómo deshabilitar el acceso a Internet en mi iPhone y iPad cuando necesito concentrarme
- Quiero hacer Electro Music. ¿Qué software y hardware necesito para esto?
- ¿Qué tengo que hacer si quiero hacer una aplicación?
- Tengo el mismo interés en el lado del software y el lado de la red. ¿Cuál debo elegir según el nivel de desafío, el salario y las bases interesantes?
Este documento puede resultarle útil: Detección humana mediante el análisis de mínimos cuadrados parciales. Enlace: Página en umd.edu