000 -CABECERA |
Campo de control de longitud fija |
02486nam a2200421 a 4500 |
008 - CAMPO FIJO DE DESCRIPCIÓN FIJA--INFORMACIÓN GENERAL |
Campo de control de longitud fija |
201021t2019 sp |||gr|||| 00| 0 spa d |
020 ## - ISBN (INTERNATIONAL STANDARD BOOK NUMBER) |
ISBN |
9788426727206 |
040 ## - FUENTE DE CATALOGACIÓN |
Agencia de catalogación original |
CO-EnEIA |
Convenciones de la descripción |
rda |
041 1# - CÓDIGO DE IDIOMA |
Código de idioma para texto, pista de sonido o título separado |
Español |
Código del idioma de la versión original y/o traducciones intermedias del texto |
eng |
082 04 - NÚMERO DE LA CLASIFICACIÓN DECIMAL DEWEY |
Número de edición DEWEY |
23 |
Número de clasificación Decimal |
005 |
Número de documento (Cutter) |
R223 |
Agencia que asigna el número |
CO-EnEIA |
100 1# - ENCABEZAMIENTO PRINCIPAL--NOMBRE PERSONAL |
9 (RLIN) |
12576 |
Nombre de persona |
Raschka, Sebastian |
245 10 - TÍTULO PROPIAMENTE DICHO |
Título |
Python machine learning : |
Parte restante del título |
aprendizaje automático y aprendizaje profundo con Python, scikit-learn y TensorFlow |
Mención de responsabilidad, etc. |
/ Sebastian Raschka, Vahid Mirjalili.- 2 edición |
246 31 - FORMA VARIANTE DEL TÍTULO |
Título propiamente dicho/forma breve del título |
Python machine learning |
250 ## - MENCIÓN DE EDICIÓN |
Mención de edición |
Segunda edición |
264 31 - PRODUCCIÓN, PUBLICACIÓN, DISTRIBUCIÓN, FABRICACIÓN Y COPYRIGHT |
Producción, publicación, distribución, fabricación y copyright |
Barcelona (España) : |
Nombre del de productor, editor, distribuidor, fabricante |
Marcombo, |
Fecha de producción, publicación, distribución, fabricación o copyright |
2019 |
300 ## - DESCRIPCIÓN FÍSICA |
Extensión |
xxii, 616 páginas ; |
Dimensiones |
23x17 cm. |
500 ## - NOTA GENERAL |
Nota general |
Titulo original: Python machine learning |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 1. |
Nota de contenido con formato preestablecido |
Dar a los ordenadores el poder de aprender de los datos |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 2. |
Nota de contenido con formato preestablecido |
Entrenar algoritmos simples de aprendizaje automático para clasificación |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 3. |
Nota de contenido con formato preestablecido |
Un recorrido por los clasificadores de aprendizaje automático con scikit-learn |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 4. |
Nota de contenido con formato preestablecido |
Generar buenos modelos de entrenamiento: preprocesamiento de datos |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 5. |
Nota de contenido con formato preestablecido |
Comprimir datos mediante la reducción de dimensionalidad |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 6. |
Nota de contenido con formato preestablecido |
Aprender las buenas prácticas para la evaluación de modelos y el ajuste de hiperparámetros |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 7. |
Nota de contenido con formato preestablecido |
Combinar de diferentes modelos para el aprendizaje continuo |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 8. |
Nota de contenido con formato preestablecido |
aplicar el aprendizaje automático para el análisis de sentimiento |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 9. |
Nota de contenido con formato preestablecido |
Incrustar un modelo de aprendizaje automático para el análisis de sentimiento |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 10. |
Nota de contenido con formato preestablecido |
Predicción de variables de destino continuas con análisis de regresión |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 11. |
Nota de contenido con formato preestablecido |
Trabajar con datos sin etiquetar: análisis de grupos |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 12. |
Nota de contenido con formato preestablecido |
Implementar una red neuronal artificial multicapa desde cero |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 13. |
Nota de contenido con formato preestablecido |
Paralelización de entrenamiento de redes neuronales con TensorFlow |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 14. |
Nota de contenido con formato preestablecido |
Ir más lejos: la mecánica de TensorFlow |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 15. |
Nota de contenido con formato preestablecido |
Clasificar imágenes con redes neuronales convulcionales profundas |
505 2# - NOTA DE CONTENIDO FORMATEADA |
Título |
Capítulo 16. |
Nota de contenido con formato preestablecido |
Modelado de datos secuenciales mediante redes neuronales recurrentes |
650 17 - ASIENTO SECUNDARIO DE MATERIA--TÉRMINO DE MATERIA |
Fuente del encabezamiento o término |
ARMARC |
9 (RLIN) |
8991 |
Nombre de materia o nombre geográfico como elemento de entrada |
Python (Lenguaje de programación de computadores) |
650 27 - ASIENTO SECUNDARIO DE MATERIA--TÉRMINO DE MATERIA |
Fuente del encabezamiento o término |
Tesauro SKOS |
9 (RLIN) |
7291 |
Nombre de materia o nombre geográfico como elemento de entrada |
Aprendizaje Automático (Inteligencia Artificial) |
710 1# - ENCABEZAMIENTO SECUNDARIO--NOMBRE CORPORATIVO |
9 (RLIN) |
12577 |
Nombre corporativo o de jurisdicción como elemento de entrada |
Mirjalili, Vahid |
Término relacionador |
Autor |
942 ## - ELEMENTOS KOHA |
Fuente de clasificación o esquema de ordenación en estanterías |
|
Koha tipo de item |
Libro - Material General |