Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Síntesis y Almacenamiento de Datos., Ejercicios de Métodos Computacionales

Síntesis y Almacenamiento de Datos.

Tipo: Ejercicios

2021/2022

Subido el 24/03/2023

norberto-ferrales
norberto-ferrales 🇲🇽

1 documento

1 / 3

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
División de Ciencias Exactas, Ingeniería y Tecnología
Licenciatura en Matemáticas
Asignatura: Computación II.
Unidad 3. Síntesis y Almacenamiento de Datos.
Actividad I.
Síntesis de Datos.
Grupo: MT-MCOM2-2202-B2-001
Alumno: Norberto Ferrales Portillo
Matrícula: ES1821015206
Docente: José Luis Mondragón Diego.
Noviembre 2022
pf3

Vista previa parcial del texto

¡Descarga Síntesis y Almacenamiento de Datos. y más Ejercicios en PDF de Métodos Computacionales solo en Docsity!

División de Ciencias Exactas, Ingeniería y Tecnología

Licenciatura en Matemáticas

Asignatura: Computación II.

Unidad 3. Síntesis y Almacenamiento de Datos.

Actividad I.

Síntesis de Datos.

Grupo: MT-MCOM 2 - 2202 - B 2 - 001

Alumno: Norberto Ferrales Portillo

Matrícula: ES

Docente: José Luis Mondragón Diego.

Noviembre 2022

I. Elabora un cuadro comparativo sobre los temas Validación, Validación cr (Burrueco, 2022) uzada, Leave one out y Bootsstrap. Validación

  • Se determina por el número de iteraciones escogidos en el entrenamiento del algoritmo.
  • Tiene 2 fases: Entrenamiento y Prueba.
  • Se divide el conjunto: 2/3 entrenameinto , 1/3 Validación
  • Para Red Neuronal se tiene un conjunto infinito de puntos para entrenamiento y validación
  • Para determinar el error se mide la relación entre éxitos y fallos y con un proceso Bernoulli se mide la probabilidad de éxito en el algoritmo. Validación Cruzada
  • Debido al azar y evitar posibles errores al dejar fuera un subconjunto se seleccionan n- 1 conjuntos para entrenar y un último para validar.
  • Se garantiza el recorrido total en entrenamiento del algoritmo.
  • Exsiten varios tipos: K - iteraciones, aleatoria, dejando uno afuera.
  • Más efectivo cuando hay pocos datos de entrenamiento para no esconder datos al modelo. Leave One Out
  • Método para medir el error en el algoritmo de entrenamiento (Dejando Uno Afuera) considerado una variante a la validación cruzada.
  • Genera n variedades a partir del conjunto de entrenamiento, la igual con n- 1 instancias para entrenar y 1 última para validar repitiendo n veces el proceso siendo n tambien la cardinalidad del conjunto ocupando n- 1 ejemplos del conjunto para entrenar.
  • Ayuda a determinar el error en el que incurre el algoritmo. Bootsstrap
  • Usado en Estadística generando un conjunto con n instancias pero con reemplazo (instancias sobrerrepresentadas).
  • La probabilidad con la que no se esta escogiendo una instancia para conformar un nuevo conjunto de entrenamiento con reemplazo: e^- 1 = 0. 368
  • En un conjunto grande, el error inducido al dejar fuera toda una categoria de ejemplos es muy alta (error optimista).
  • El conjunto de entrenamiento contiene 63 % de los ejemplos del conjunto de entrenamiento original repitiendo y muestreando varias veces el proceso.