• Ciencia de Datos y Machine Learning 2
  • BIENVENIDA
    • Objetivo
    • Instructores
    • Ciencia de Datos en R
    • Estructura del curso actual
      • Alcances del curso
    • Duración y evaluación del curso
    • Recursos y dinámica de clase
  • 1 Repaso
    • 1.1 Machine Learning
    • 1.2 Tipos de aprendizaje
      • 1.2.1 Aprendizaje supervisado
      • 1.2.2 Aprendizaje no supervisado
    • 1.3 Errores: Sesgo vs varianza
    • 1.4 Partición de datos
      • 1.4.1 Métodos comunes para particionar datos
      • 1.4.2 Conjunto de validación
    • 1.5 Recetas y tratamiento de datos
      • 1.5.1 Pre-procesamiento de datos
      • 1.5.2 Recetas
  • 2 Feature Engineering
    • 2.1 Regresión polinomial
    • 2.2 Análisis de Componentes Principales
      • 2.2.1 Eigenvalores y eigenvectores
      • 2.2.2 Implementación en R
      • 2.2.3 Representación gráfica
      • 2.2.4 ¿Cuántas componentes retener?
    • 2.3 Imputación KNN
      • 2.3.1 Ventajas y limitaciones del Clasificador KNN
      • 2.3.2 Implementación en R
    • 2.4 Ejercicios
  • 3 Support Vector Machine (SVM / SVR)
    • 3.1 Maximum Margin Classifier
    • 3.2 Support Vector Classifiers
    • 3.3 Support Vector Machine
    • 3.4 El truco del Kernel
    • 3.5 Support Vector Regression
    • 3.6 Ventajas y desventajas
    • 3.7 Ajuste del modelo con R
      • 3.7.1 Implementación de SVR en R
      • 3.7.2 Implementación de SVM en R
    • 3.8 Ejercicios
  • 4 Bagging & Boosting
    • 4.1 Aprendizaje conjunto
    • 4.2 Bagging vs. boosting
      • 4.2.1 Error Out-Of-Bag
    • 4.3 Algoritmo Bagging
      • 4.3.1 Ventajas y desventajas de bagging
      • 4.3.2 Aplicaciónes de Bagging
      • 4.3.3 Implementación en R
    • 4.4 Algoritmo Boosting
      • 4.4.1 Predicciones de Boosting
      • 4.4.2 Modelos Boosting
      • 4.4.3 Implementación en R
      • 4.4.4 XGBoost para regresión
      • 4.4.5 XGBoost para clasificación
    • 4.5 Ejercicios
  • 5 Workflowsets & Stacking
    • 5.1 Múltiples recetas
    • 5.2 Múltiples modelos
    • 5.3 Creación de workflowset
    • 5.4 Ajuste y evaluación de modelos
    • 5.5 Extracción de modelos
      • 5.5.1 Selección de modelo
    • 5.6 Métodos de carrera
      • 5.6.1 Optimización ANOVA
      • 5.6.2 Optimización Logística
      • 5.6.3 Optimización Bayesiana
    • 5.7 Stacking
      • 5.7.1 Elección de modelos
      • 5.7.2 Ajuste final
      • 5.7.3 Comparación de métricas
    • 5.8 Ejercicios
  • 6 Sesgo e Inequidad
    • 6.1 Propósito Vs Error
    • 6.2 Métricas
      • 6.2.1 Equal Parity or Demographic or Statistical Parity
      • 6.2.2 Proportional Parity o Impact Parity o Minimizing Disparate Impact
      • 6.2.3 Equalized odds
      • 6.2.4 Predictive rate parity
      • 6.2.5 Accuracy parity
      • 6.2.6 False Negative Parity o Equal Oppportunity
      • 6.2.7 False Positive Parity
      • 6.2.8 Negative predictive value parity
      • 6.2.9 Specificity parity
  • 7 Interpretabilidad de modelos
    • 7.1 LIME
      • 7.1.1 Proceso
      • 7.1.2 Características principales
      • 7.1.3 Implementación con R
    • 7.2 DALEXtra
      • 7.2.1 Otros métodos
      • 7.2.2 Consejos
  • 8 A / B - testing
    • 8.1 Elementos en riesgo
    • 8.2 Costo de retención
    • 8.3 Diseño experimental
      • 8.3.1 ¿Qué es y para qué sirve muestreo?
      • 8.3.2 Muestreo aleatorio simple
      • 8.3.3 Muestreo estratificado
      • 8.3.4 Marco de muestreo
      • 8.3.5 Tamaño de muestra
      • 8.3.6 Distribución muestral
      • 8.3.7 Probabilidades y Factores
    • 8.4 Extracción de muestra
      • 8.4.1 Muestreo Aleatorio Simple sin remplazo
      • 8.4.2 Muestreo estratificado
    • 8.5 Estimación muestral
      • 8.5.1 Implementación de diseño muestral
      • 8.5.2 Estimación de resultados
  • References

AMAT- Ciencia de Datos y Machine Learning 2

References

https://towardsdatascience.com/svm-and-kernel-svm-fed02bef1200

https://towardsdatascience.com/support-vector-machine-explained-8bfef2f17e71

https://medium.com/swlh/the-support-vector-machine-basic-concept-a5106bd3cc5f

https://towardsdatascience.com/unlocking-the-true-power-of-support-vector-regression-847fd123a4a0#:~:text=Support%20Vector%20Regression%20is%20a,the%20maximum%20number%20of%20points.

https://www.mygreatlearning.com/blog/introduction-to-support-vector-machine/

https://www.robots.ox.ac.uk/~az/lectures/ml/lect3.pdf