1. Libros
  2. Inteligencia artificial fácil - Machine Learning y Deep Learning prácticos

Inteligencia artificial fácil Machine Learning y Deep Learning prácticos

  • Disponible
  • Expedido en 24 horas
  • Envío gratis a partir de 25 € de compra
  • Versión online gratis por un año
  • Consulta inmediata
  • Versión online digital, no descargable
  • Acceso ilimitado 24/7, durante 10 años
  • Acceso ilimitado 24/7, durante 10 años
  • Todos los libros online de ENI
  • Más de 5 novedades todos los meses
  • Novedades disponibles el mismo día de su publicación
  • Acceso 100% online

Presentación

Actualmente la inteligencia artificial es imprescindible. El objetivo de este libro es presentar de forma fácil los conceptos Machine Learning y Deep Learning para aplicarlos en los proyectos basados en inteligencia artificial, evitando todo lo posible las fórmulas matemáticas y estadísticas. Principalmente está dirigido a desarrolladores, pero también les interesará a todos los principiantes en el tema.

Con un planteamiento progresivo, todos los conceptos estudiados en este libro se ilustran mediante casos prácticos escritos en Python. Por eso, tener conocimientos de este lenguaje es una ventaja.

Después de una introducción a la inteligencia artificial y la identificación de los temores que suscita, hay algunos recordatorios de los fundamentos del lenguaje Python junto con una revisión de algunas nociones estadísticas para comprender mejor los algoritmos de Machine Learning. A continuación, el lector puede poner en práctica algunos de estos algoritmos y descubrir cómo hacer que su ordenador prediga valores y haga clasificaciones.

Después estudiaremos el aprendizaje no supervisado y el uso de las redes neuronales, que además le permitirá descubrir la importancia de la neurociencia en la inteligencia artificial. El libro termina con los casos prácticos: el primero combina red neuronal y palabra, mientras que el segundo está relacionado con el primer chatbot.

Con archivos complementarios para descarga.

¡Nuevo! Rondas de preguntas disponibles con la versión online.

¡Ronda de preguntas
incluida en
la versión online !
  • Ponga a prueba sus conocimientos al final de cada capítulo
  • Evalúe sus competencias

Índice

  • Prólogo
    • 1. Conceptos relacionados con la inteligencia artificial
    • 2. Sobre el autor
    • 3. ¿ A quién va dirigido este libro ?
    • 4. Estructura del libro
    • 5. Cuestiones prácticas
    • 6. Agradecimientos
  • Inteligencia artificial
    • 1. Lo que vamos a descubrir y requisitos
    • 2. La inteligencia artificial no es algo nuevo
    • 3. Algunas fechas y períodos cruciales
    • 4. ¿ Qué es la inteligencia artificial ?
    • 5. Inteligencia artificial, Machine Learning y Deep Learning
    • 6. Los distintos tipos de aprendizaje
    • 7. El temor a la inteligencia artificial
      • 7.1 La singularidad tecnológica
      • 7.2 Empleos amenazados
      • 7.3 Inteligencias artificiales desviadas
      • 7.4 Cajas negras que dan miedo
      • 7.5 La privacidad y la inteligencia artificial
    • 8. Cómo crear una inteligencia artificial en casa
  • Los fundamentos del lenguaje Python
    • 1. Lo que vamos a descubrir y requisitos previos
    • 2. ¿ Por qué Python ?
    • 3. Instalación de Python
    • 4. Introducción rápida a Python
      • 4.1 Python, un lenguaje interpretado
      • 4.2 Operaciones básicas
        • 4.2.1 Asignación y visualización de una variable
        • 4.2.2 Asignación y visualización de varias variables y posiblemente de tipos distintos
        • 4.2.3 Creación de varias variables del mismo tipo y del mismo valor
      • 4.3 Manipulación de cadenas de caracteres
        • 4.3.1 Creación de una cadena de caracteres
        • 4.3.2 Las concatenaciones
        • 4.3.3 Acceso a los caracteres de una cadena
        • 4.3.4 Algunas funciones útiles
      • 4.4 Uso de las listas
        • 4.4.1 Inicialización
        • 4.4.2 Funciones de manipulación de las listas
      • 4.5 Las tuplas y los diccionarios
      • 4.6 Las estructuras condicionales y los bucles
        • 4.6.1 Las estructuras condicionales
        • 4.6.2 Los bucles while
        • 4.6.3 Los bucles for
    • 5. Instalación de PyCharm
    • 6. El primer script en Python
      • 6.1 Creación del proyecto
      • 6.2 Creación del archivo de script principal
      • 6.3 Las primeras líneas de código
        • 6.3.1 Una tupla para la configuración
        • 6.3.2 Creación de las zonas utilizando diccionarios
        • 6.3.3 Agrupación de las zonas en una lista
        • 6.3.4 Función para calcular la superficie que se ha de limpiar
        • 6.3.5 Segunda función para programar el tiempo de limpieza
        • 6.3.6 El script en conjunto
    • 7. Conclusión
  • Estadísticas para comprender los datos
    • 1. Lo que vamos a descubrir y requisitos previos
    • 2. Las estadísticas, una herramienta para ayudar a comprender los datos
    • 3. Estudio de caso práctico: una serie de notas
    • 4. Conceptos de vocabulario antes de empezar
      • 4.1 Observaciones y características
      • 4.2 Los tipos de datos
    • 5. Aplicaciones de Python
      • 5.1 Módulos dedicados
      • 5.2 Representación particular de caso práctico
      • 5.3 Excel como herramienta en lugar de Python
    • 6. Medidas de tendencia central
      • 6.1 Conocer la cantidad de observaciones y de características
      • 6.2 Los valores mínimos y máximos
      • 6.3 La media aritmética
      • 6.4 La mediana
        • 6.4.1 Caso de cantidad de observaciones impar
        • 6.4.2 Caso de cantidad de observaciones par
        • 6.4.3 Volvemos a nuestro ejemplo
      • 6.5 La moda
    • 7. Primeras deducciones
    • 8. La dispersión
      • 8.1 El rango
      • 8.2 La desviación típica (desviación estándar)
        • 8.2.1 Cálculo de la varianza
        • 8.2.2 Cálculo de la desviación típica
        • 8.2.3 Interpretación de la desviación típica
      • 8.3 Los cuartiles y el rango intercuartil
        • 8.3.1 Los cuartiles
        • 8.3.2 El rango intercuartil
    • 9. Detección de valores extremos (outliers en inglés)
    • 10. Tratamiento de los valores extremos
    • 11. Un poco de visualización gráfica
    • 12. Conclusión sobre los datos
    • 13. Distribución gaussiana y ley normal
      • 13.1 Un ejemplo para conocernos mejor
      • 13.2 Introducción a las probabilidades
    • 14. Una clase de Python para ayudarle a analizar sus datos
    • 15. ¿Cuántas observaciones son necesarias para un aprendizaje correcto ?
  • Principales algoritmos de Machine Learning
    • 1. Lo que vamos a descubrir y requisitos
    • 2. ¿ Supervisado o no supervisado ? ¿ Regresión o clasificación ?
    • 3. Los algoritmos de aprendizaje supervisados por la regresión (predicción de valores)
      • 3.1 Regresión lineal simple (linear regression)
      • 3.2 Regresión lineal múltiple (Multiple Linear Regression-MLR)
      • 3.3 Método de descenso del gradiente
      • 3.4 Regresión polinomial (polynomial regression)
        • 3.4.1 Monomio y polinomio
      • 3.5 Regresión logística
      • 3.6 Árbol de decisión (decision tree)
      • 3.7 Bosques aleatorios (Random Forest)
      • 3.8 Agrupación de modelos: bagging, boosting y Gradient boosting
        • 3.8.1 Bagging
        • 3.8.2 Boosting
        • 3.8.3 Gradient Boosting (GBoost) y XGBoost
      • 3.9 Máquina de vectores de soporte (SVM)
      • 3.10 KNN (K-Nearest Neighbours)
      • 3.11 Bayesiano ingenuo (Naive Bayes)
    • 4. Algoritmos para aprendizajes no supervisados
      • 4.1 K-Medias (KMeans)
      • 4.2 Mean-shift
      • 4.3 DBSCAN (Density Based Spatial Clustering of Application with Noise)
      • 4.4 Mezcla gaussiana (Gaussian Mixture Models (GMM))
    • 5. ¿ Y eso es todo ?
  • Machine Learning y los Pokémon: primera parte
    • 1. Lo que vamos a descubrir y requisitos
    • 2. El universo de los Pokémon
    • 3. Nuestra misión: elegir el Pokémon correcto
    • 4. Datos para un aprendizaje supervisado
      • 4.1 Datos basados en la experiencia
      • 4.2 Disponer de una gran cantidad de datos de aprendizaje
      • 4.3 Datos de aprendizaje y datos de pruebas
    • 5. Pasos para realizar un proyecto de Machine Learning
      • 5.1 Creación y configuración de un proyecto nuevo de Python
        • 5.1.1 Instalación de módulos
        • 5.1.2 Uso de los módulos en un script de Python
        • 5.1.3 Indexación de los archivos de datos en nuestro proyecto
    • 6. Primera etapa: definir el problema que hay que resolver
    • 7. Segunda etapa: adquirir datos de aprendizaje y de pruebas
    • 8. Tercera etapa: preparación de los datos
      • 8.1 ¿ De qué datos disponemos ?
      • 8.2 Visualización de las diez primeras líneas de nuestros datos
      • 8.3 ¿ Cuáles son las características de categorización ?
      • 8.4 ¿ Qué datos son de tipo digital ?
      • 8.5 ¿ Qué hay que pensar de la característica LEGENDARIO ?
      • 8.6 ¿ Faltan datos ?
      • 8.7 En busca de las características que faltan
      • 8.8 Un lugar para las observaciones de los combates
      • 8.9 Combinación de las observaciones
        • 8.9.1 Cantidad de combates realizados
        • 8.9.2 Cantidad de combates ganados
        • 8.9.3 Agregación de datos con Pokédex
    • 9. Hagamos una pausa
  • Machine Learning y los Pokémon: segunda parte
    • 1. Lo que vamos a descubrir y requisitos
    • 2. Algunas estadísticas
      • 2.1 La cantidad de datos (count)
      • 2.2 La media (mean)
      • 2.3 La desviación típica (Std para Standard Deviation)
      • 2.4 Los valores mínimos y máximos
      • 2.5 Los cuartiles
      • 2.6 Descripción de nuestro conjunto de observaciones
    • 3. ¿ Cuáles son los tipos de Pokémon que debe tener un domador ?
    • 4. Los tipos de Pokémon ganadores y perdedores
    • 5. Intentamos encontrar una relación entre los datos
    • 6. Resumen de nuestras observaciones
    • 7. Verificamos nuestras hipótesis
    • 8. Pasamos a la fase de aprendizaje
      • 8.1 Distribución de las observaciones en conjunto de aprendizaje y conjunto de pruebas
      • 8.2 Algoritmo de regresión lineal
      • 8.3 El árbol de decisión aplicado a la regresión
      • 8.4 Random forest
      • 8.5 Guardar el modelo de aprendizaje
    • 9. Fenómenos de sobreajuste (overfitting) y de subajuste (underfitting)
    • 10. Utilizar el modelo de aprendizaje en una aplicación
    • 11. Fin del caso de estudio
  • Clasificar bien no es una opción
    • 1. Lo que vamos a descubrir y requisitos
    • 2. Comienzos y origen del conjunto de observaciones
    • 3. Un problema de clasificación y algoritmos de predicción asociados
    • 4. Planteamiento de resolución del problema
      • 4.1 Definición del problema por resolver
      • 4.2 Adquisición de los datos de aprendizaje
      • 4.3 Preparar y limpiar los datos
        • 4.3.1 ¿ De qué datos disponemos ?
        • 4.3.2 ¿ De cuántos datos disponemos ?
        • 4.3.3 Visualización de las 10 primeras observaciones
        • 4.3.4 Transformación de la característica OBJETO
        • 4.3.5 ¿ Faltan datos ?
      • 4.4 Analizar y explorar los datos
        • 4.4.1 ¿ Cuántas minas y cuántas rocas ?
        • 4.4.2 Media, desviación típica, mín., máx. y cuartiles
        • 4.4.3 En busca de los valores extremos
        • 4.4.4 Tratamiento de los valores extremos
      • 4.5 Elección de un modelo de predicción y resolución del problema
        • 4.5.1 Datos de aprendizaje y datos de pruebas
        • 4.5.2 Prueba de los algoritmos
        • 4.5.3 Optimización
        • 4.5.4 ¿ Y si aceleramos un poco ?
        • 4.5.5 ¿ Qué hacemos con los datos extremos ?
    • 5. Resumen
  • Opiniones y clasificación de textos
    • 1. Lo que vamos a descubrir y requisitos
    • 2. Tratamiento automático del lenguaje natural (TALN)
    • 3. Bayesiano ingenuo aplicado al TALN
      • 3.1 El teorema
      • 3.2 Elegir palabras para un ejemplo
        • 3.2.1 Determinación de las probabilidades
        • 3.2.2 Conclusión
    • 4. Bayesiano ingenuo para el análisis de opinión
      • 4.1 Fase 1: Normalización de los datos
      • 4.2 Fase 2: Eliminación de las stop words
      • 4.3 Fase 3: El stemming
      • 4.4 Fase 4: La lematización
      • 4.5 Fase 5: Determinar la cantidad de incidencias de cada palabra
      • 4.6 Fase 6: Determinar las probabilidades para la opinión positiva
      • 4.7 Fase 7: Determinar las probabilidades para la opinión positiva
      • 4.8 Fase 8: Determinar la opinión de una frase nueva
    • 5. Caso práctico: creencias sobre el calentamiento climático
      • 5.1 ¿ Cómo obtener datos ?
      • 5.2 Creación de un proyecto Python
      • 5.3 Adquisición y preparación de los datos
        • 5.3.1 Carga del archivo
        • 5.3.2 Normalización
        • 5.3.3 Eliminación de las stop words
        • 5.3.4 El stemming
        • 5.3.5 La lematización
    • 6. Fases de aprendizaje y de predicción
      • 6.1 Distribución en conjuntos de pruebas y de aprendizaje
      • 6.2 Creación de una canalización de aprendizaje
      • 6.3 Aprendizaje y análisis de los resultados
      • 6.4 Clasificación de un mensaje nuevo
    • 7. El algoritmo SVM (máquina de vectores de soporte) para la clasificación de texto
    • 8. ¿ El algoritmo SVM es más eficaz que el bayesiano ingenuo ?
  • Albaricoques, cerezas y clustering
    • 1. Una máquina que aprende sola
    • 2. Adquisición de datos de aprendizaje
    • 3. Algoritmo de las K-Means (K-Medias)
    • 4. Visualizar los datos
    • 5. Dejar a la máquina clasificar sola
    • 6. Hacer clasificaciones
    • 7. Errores de clasificaciones
    • 8. Algoritmo de mezclas gaussianas o Gaussian Mixture Model (GMM)
    • 9. Conclusión
  • La predicción con neuronas
    • 1. Lo que vamos a descubrir y requisitos
    • 2. El perceptrón de 1957
      • 2.1 Un poco de biología
      • 2.2 Biología aplicada a Machine Learning
    • 3. Datos linealmente separables
    • 4. Funciones de activación, retropropagación y descenso del gradiente
      • 4.1 Función de activación
        • 4.1.1 Función de umbral binario
        • 4.1.2 Función sigmoide
        • 4.1.3 Función tangente hiperbólica (tanH)
        • 4.1.4 Función ReLU (Rectified Linear Unit, unidad de rectificación lineal)
        • 4.1.5 Función softMax
    • 5. La retropropagación del error
    • 6. Funciones de pérdida (Loss function)
      • 6.1 Error lineal o error local
      • 6.2 Error media cuadrática MSE o error global
    • 7. Descenso de gradiente
    • 8. El sesgo, una neurona particular
    • 9. Caso práctico para comprender el perceptrón
      • 9.1 Inicialización del perceptrón
      • 9.2 Etapas de aprendizaje
        • 9.2.1 Etapa 1: Inicialización de los pesos
        • 9.2.2 Etapa 2: Carga de los datos de la primera observación
        • 9.2.3 Etapa 3: Preactivación
        • 9.2.4 Etapa 4: Uso de una función de activación
        • 9.2.5 Etapa 5: Cálculo del error lineal cometido durante el aprendizaje
        • 9.2.6 Etapa 6: Ajuste de los pesos sinápticos
    • 10. Programamos nuestra primera neurona formal «From Scratch»
      • 10.1 Datos de aprendizaje
      • 10.2 Definición de los pesos
      • 10.3 Gestión de los hiperparámetros
      • 10.4 Programación de funciones útiles
      • 10.5 Pasamos al aprendizaje
      • 10.6 Buscando el punto de convergencia
      • 10.7 Pruebas de predicciones
    • 11. Una neurona artificial con TensorFlow
      • 11.1 Breve resumen de TensorFlow
      • 11.2 Datos de aprendizaje y de pruebas
      • 11.3 Parametrización de la neurona
      • 11.4 Aprendizaje
      • 11.5 Pruebas de predicciones
    • 12. El primer paso hacia Deep Learning
  • Usar varias capas de neuronas
    • 1. Lo que vamos a descubrir y requisitos
    • 2. Funcionamiento de las redes neuronales multicapa
    • 3. OR exclusivo (XOR)
      • 3.1 ¿ Cuántas capas y neuronas necesitamos ?
      • 3.2 Un ejemplo numérico
        • 3.2.1 Datos de aprendizaje
        • 3.2.2 Inicialización de los pesos
        • 3.2.3 Carga de los datos de entrada
        • 3.2.4 Cálculo de la preactivación de la neurona de salida
        • 3.2.5 Cálculo de la activación
        • 3.2.6 Cálculo del error
        • 3.2.7 Actualización de los pesos
      • 3.3 Programar con TensorFlow
    • 4. Vuelven las minas y las rocas
      • 4.1 ¿ Más neuronas en la capa oculta dan lugar a mejores resultados ?
        • 4.1.1 Carga de datos de aprendizaje
        • 4.1.2 Creación de los conjuntos de aprendizaje y de pruebas
        • 4.1.3 Parametrización de la red neuronal con una capa oculta de 24 neuronas
        • 4.1.4 Realización del aprendizaje
        • 4.1.5 Cálculo de la precisión del aprendizaje
        • 4.1.6 ¿ Una capa oculta de 24 neuronas da lugar a mejores resultados ?
        • 4.1.7 ¿ Podemos obtener mejores resultados ?
    • 5. Conclusión
  • Clasificación de imágenes
    • 1. Lo que vamos a descubrir y requisitos
    • 2. Diferencia entre detección y clasificación de imágenes
    • 3. Redes neuronales convolucionales para clasificar imágenes
      • 3.1 Necesitamos muchos datos de aprendizaje
      • 3.2 Una herramienta para ilustrar nuestras palabras
      • 3.3 La imagen de entrada
      • 3.4 Características
      • 3.5 La convolución
      • 3.6 Pooling
      • 3.7 Múltiples capas de convoluciones
      • 3.8 Aplanar (Flatten)
      • 3.9 Aprendizaje
      • 3.10 Esquema global
    • 4. Caso práctico alrededor de la moda
      • 4.1 Presentación de Kaggle
      • 4.2 Módulo Keras
      • 4.3 Clasificar vestidos, jerséis y zapatos
      • 4.4 ¿ De qué datos disponemos ?
      • 4.5 Preparación de los datos de aprendizaje
      • 4.6 Preparación de los datos de pruebas
      • 4.7 Una red con una sola capa de convolución
        • 4.7.1 Configuración
        • 4.7.2 Compilación, aprendizaje y prueba
        • 4.7.3 Conclusión sobre el aprendizaje
        • 4.7.4 Aumento de la cantidad de datos
        • 4.7.5 Guardar el modelo
      • 4.8 Un modelo más eficaz
    • 5. Uso del modelo con imágenes nuevas
    • 6. Conclusión
  • El ordenador sabe leer
    • 1. Lo que vamos a descubrir y requisitos
    • 2. Su misión
      • 2.1 Pregunta n.º 1: ¿ Qué datos necesita ?
      • 2.2 Pregunta n.º 2: ¿ Cómo se utiliza el módulo Python-Mnist ?
      • 2.3 Pregunta n.º 3: ¿ De qué datos dispone ahora ?
      • 2.4 Pregunta n.º 4: ¿ Es un problema de regresión o de clasificación ?
      • 2.5 Pregunta n.º 5: ¿ Qué algoritmo se debe utilizar ?
      • 2.6 Pregunta n.º 6: ¿ Cómo va a crear sus conjuntos de aprendizaje y de pruebas ?
      • 2.7 Pregunta n.º 7: ¿ Las imágenes tienen el formato correcto ?
      • 2.8 Pregunta n.º 8: ¿ Qué es la categorización de las etiquetas en One-Hot y cómo proceder para realizarla ?
      • 2.9 Pregunta n.º9: ¿ Tiene una ligera idea de los parámetros que debe utilizar para crear la red neuronal ?
      • 2.10 Pregunta n.º 10: ¿ El resultado le parece satisfactorio ?
      • 2.11 Misión cumplida
    • 3. El reconocimiento de letras en un vídeo
      • 3.1 Una pizarra como apoyo
      • 3.2 OpenCV, un módulo de tratamiento de imágenes
        • 3.2.1 Utilizar la cámara web
        • 3.2.2 Detectar las formas rectangulares
        • 3.2.3 Detectar la zona de escritura
        • 3.2.4 Detectar y extraer la letra escrita
        • 3.2.5 Reconocer la letra escrita y hacer leer al ordenador
    • 4. Conclusión
  • Homenaje al primer ChatBot
    • 1. Introducción
    • 2. Eliza
      • 2.1 ¿ Cómo funciona Eliza ?
      • 2.2 El programa de Eliza
    • 3. Otros ChatBots
    • 4. Ya hemos llegado al final
    • índice

Características

  • Nivel Medio a Experto
  • Número de páginas 435 páginas
  • Publicación abril 2020
    • Encuadernación rústica - 17 x 21 cm
    • ISBN: 978-2-409-02532-7
    • EAN: 9782409025327
    • Ref. ENI: RITIAVUL
  • Nivel Experto a Medio
  • Publicación abril 2020
    • HTML
    • ISBN: 978-2-409-02533-4
    • EAN: 9782409025334
    • Ref. ENI: LNRITIAVUL

Descargas

Al completar este formulario, acepta recibir información y comunicaciones comerciales sobre nuestros productos y servicios. Puede darse de baja de nuestra newsletter en cualquier momento. Si desea conocer más información acerca de nuestra política de protección de datos, pulse aquí.
  • Descargar complementos (45 Mo)