Elige una o más opciones en cada pregunta

  1. El Perceptrón simple y el Adaline se parece en ...

    1. Ambas son redes con funciones de activación lineales
    2. Ambas son redes monocapas
    3. Ambas utilizan aprendizaje supervisado por corrección del error
  2. El Perceptrón simple y el Adaline se diferencian en ...

    1. Uno tiene capacidad de separación no lineal y el otro no
    2. Utilizar distintas funciones de activación
    3. Utilizar tipos de datos de entrada diferentes
  3. Los teoremas de convergencia establecen ...

    1. Las condiciones para que dos redes converjan entre sí
    2. El número adecuado de salidas para que una red converja
    3. Las condiciones necesarias para alcanzar la convergencia en un modelo y problema dado
  4. El problema de la no separabilidad lineal es abordable por ...

    1. Perceptrones simples con funciones de activación no lineales
    2. Redes backpropagation con capas ocultas con funciones de activación lineales
    3. Ninguna de las anteriores
  5. La regla delta del Adaline se obtiene de ...

    1. Maximizar la separabilidad lineal entre los patrones de entrenamiento
    2. Minimizar la suma del error absoluto de las salidas
    3. Minimizar la suma del error cuadrático de las salidas
  6. El Perceptrón simple converge si ...

    1. En dos iteraciones consecutivas no varía el resultado de la red
    2. Se alcanza el número máximo de iteraciones
    3. Cuando en una iteración no se modifiquen los valores de pesos
Última modificación: martes, 25 de junio de 2013, 09:36