Buscador de libros
Busqueda avanzada- N° páginas : 220
- Medidas: 135 x 210 mm.
- Peso: 398 gr
- Encuadernación: Rústica
Redes neuronales recurrentes y transformers DE JORGE BOTANA, GUILLERMO
¿Cómo puede el Chat GPT y compañía dar esas respuestas?
¿Quieres comprar este libro? Busca tu librería más cercana
Sinopsis
Los Grandes Modelos del Lenguaje han inundado muchos ámbitos en los que nos desenvolvemos. Raro es el que no haya puesto a prueba los modelos GPT 3.5/4, o no haya requerido la ayuda de chatGPT. Pero, ¿cómo hacen para generar estas respuestas?. Por debajo de todo ello se encuentran los algoritmos de aprendizaje profundo, en especial las redes neuronales artificiales de última generación. Este libro se dedica a las más destacadas en la construcción de estos modelos: las Redes Neuronales Recurrentes (RNN-LSTM) y los Transformers. Existen muchos videos y páginas web dedicadas a programar o usar, con pocas líneas de código, un modelo basado en RNN-LSTM o en bloques Transformer.. Se pretende que los que están aprendiendo a usarlas sepan entenderlas de manera exhaustiva y no ser el mero ejecutor de unas líneas. Esto ayudará a diseñar mejores entornos y no menos importante, a explicarlos y comunicarlos. Además, para poder homologar comportamiento artificial con comportamiento humano, el tratamiento de la argumentación del libro está orientado hacia la Ciencia Cognitiva.
Autor: de Jorge Botana, Guillermo
Profesor titular en la Facultad de Psicología de la Universidad Complutense de Madrid. Imparte asignaturas relacionadas con la Metodología de las Ciencias del Comportamiento, como Estadística II, Aprendizaje Automático Supervisado o Tecnología del Conocimiento. Antes de dedicarse a la docencia universitaria, desarrolló una carrera profesional en empresas tecnológicas, la mayoría de ellas relacionadas con tecnología desplegada en el Contact-Center, especialmente los agentes automáticos de atención al cliente y las plataformas de reconocimiento de voz.