Suchen

Alammar, Jay: Praxisbuch Large Language Models

Sprache mit KI verarbeiten und generieren
Alle Werkzeuge und Techniken für die praktische Arbeit mit LLMs
  • Das Handbuch für das intuitive Verständnis von LLMs: Mit zahlreichen Visualisierungen, die Konzepte schnell zugänglich machen
  • Themen sind die Sprachverarbeitung - Textklassifikation, Suche oder Cluster - und die Sprachgenerierung - vom Prompt Engineering bis zur Retrieval Augmented Generation (RAG)
  • Die Autoren haben mit ihren beliebten Blogs Millionen von Entwickler*innen geholfen, Machine Learning und KI zu verstehen

Diese umfassende und anschauliche Einführung in die Welt der LLMs beschreibt sowohl konzeptionelle Grundlagen als auch konkrete Anwendungen und nützliche Tools. Tauchen Sie ein in das Innenleben von LLMs und erforschen Sie ihre Architekturen, Einsatzbereiche, Trainingsmethoden und Feintuning-Techniken. Mit seiner einzigartigen Mischung aus Intuitionsbildung, Praxisbezug und illustrativem Stil ist dieses Buch die ideale Ausgangsbasis für alle, die die spannenden Möglichkeiten von LLMs erkunden möchten.

Sie lernen, vortrainierte Transformer-LLMs von Hugging Face zu nutzen, beispielsweise für die Sentiment-Analyse, das Text Clustering oder das Topic Modeling. Das Themenspektrum umfasst weiterhin das Prompt Engineering, den Einsatz des LangChain-Frameworks, Semantic Search und RAG-Techniken sowie multimodale LLMs. Fortgeschrittene Aufgaben wie das Training und die Optimierung der Modelle runden das Buch ab. Um den Lernprozess zu erleichtern und Ihnen zu ermöglichen, die Beispiele direkt praktisch auszuprobieren, stellen die Autoren den gesamten Code des Buchs auf Google Colab zur Verfügung.


Autor Alammar, Jay
Verlag O'Reilly
Einband Kartonierter Einband (Kt)
Erscheinungsjahr 2025
Seitenangabe 448 S.
Meldetext Noch nicht erschienen, Juli 2025
Ausgabekennzeichen Deutsch
Abbildungen komplett in Farbe
Masse H24.0 cm x B16.5 cm
Reihe Animals
Alle Werkzeuge und Techniken für die praktische Arbeit mit LLMs
  • Das Handbuch für das intuitive Verständnis von LLMs: Mit zahlreichen Visualisierungen, die Konzepte schnell zugänglich machen
  • Themen sind die Sprachverarbeitung - Textklassifikation, Suche oder Cluster - und die Sprachgenerierung - vom Prompt Engineering bis zur Retrieval Augmented Generation (RAG)
  • Die Autoren haben mit ihren beliebten Blogs Millionen von Entwickler*innen geholfen, Machine Learning und KI zu verstehen

Diese umfassende und anschauliche Einführung in die Welt der LLMs beschreibt sowohl konzeptionelle Grundlagen als auch konkrete Anwendungen und nützliche Tools. Tauchen Sie ein in das Innenleben von LLMs und erforschen Sie ihre Architekturen, Einsatzbereiche, Trainingsmethoden und Feintuning-Techniken. Mit seiner einzigartigen Mischung aus Intuitionsbildung, Praxisbezug und illustrativem Stil ist dieses Buch die ideale Ausgangsbasis für alle, die die spannenden Möglichkeiten von LLMs erkunden möchten.

Sie lernen, vortrainierte Transformer-LLMs von Hugging Face zu nutzen, beispielsweise für die Sentiment-Analyse, das Text Clustering oder das Topic Modeling. Das Themenspektrum umfasst weiterhin das Prompt Engineering, den Einsatz des LangChain-Frameworks, Semantic Search und RAG-Techniken sowie multimodale LLMs. Fortgeschrittene Aufgaben wie das Training und die Optimierung der Modelle runden das Buch ab. Um den Lernprozess zu erleichtern und Ihnen zu ermöglichen, die Beispiele direkt praktisch auszuprobieren, stellen die Autoren den gesamten Code des Buchs auf Google Colab zur Verfügung.


CHF 67.00
Verfügbarkeit: Am Lager
ISBN: 978-3-96009-266-7
Verfügbarkeit: Noch nicht erschienen, Juli 2025

Über den Autor Alammar, Jay

Jay Alammar ist Direktor und Engineering Fellow bei Cohere, dem Vorreiter bei der Bereitstellung von Large Language Models als API. In dieser Funktion berät und schult er Unternehmen und die Entwicklergemeinschaft bei der Verwendung von Sprachmodellen für praktische Anwendungsfälle. Durch seinen beliebten AI/ML-Blog hat Jay Millionen von Forscherinnen und Softwareengineers geholfen, Tools und Konzepte des Machine Learnings visuell zu verstehen - von den Grundlagen (die in der Dokumentation von Paketen wie NumPy und pandas auftauchen) bis hin zu den neuesten Entwicklungen (Transformers, BERT, GPT-3, Stable Diffusion). Jay ist außerdem Mitgestalter von beliebten Kursen zum Machine Learning und Natural Language Processing auf Deeplearning.ai und Udacity.

Maarten Grootendorst ist Senior Clinical Data Scientist bei IKNL (Netherlands Comprehensive Cancer Organization). Er hat Master-Abschlüsse in Organisationspsychologie, klinischer Psychologie und Data Science, die er nutzt, um komplexe Konzepte des Machine Learning einem breiten Publikum zu vermitteln. Mit seinen beliebten Blogs hat er Millionen von Leserinnen und Lesern erreicht, indem er die Grundlagen der künstlichen Intelligenz erklärt - oft aus psychologischer Sicht. Er ist Autor und Betreuer mehrerer Open-Source-Pakete, die sich auf die Stärke von Large Language Models stützen, wie BERTopic, PolyFuzz und KeyBERT. Seine Pakete werden millionenfach heruntergeladen und von Datenexperten und Organisationen weltweit genutzt.

Weitere Titel von Alammar, Jay

Filters
Sort
display