,

Deep learning i modelowanie generatywne

Availability:

Na stanie


Techniki uczenia głębokiego rozwijają się w imponującym tempie, a sieci neuronowe znajdują zastosowanie w przeróżnych branżach.

  • Autor: David Foster
  • Wydawca: Helion
  • Rok wydania: 2021, oprawa: broszurowa
  • Strony: 264, Format: 234x160x15 mm
  • Produkt na zamówienie. Wysyłka do 7 dni roboczych.

£13.99

Na stanie

Deep learning i modelowanie generatywne

David Foster

Techniki uczenia głębokiego rozwijają się w imponującym tempie, a sieci neuronowe znajdują zastosowanie w przeróżnych branżach. Coraz częściej komputer wykonuje zadania, które do niedawna były zarezerwowane dla człowieka. Dobrym przykładem jest tworzenie dzieł sztuki: ostatnie postępy w dziedzinie modelowania generatywnego sprawiają, że maszyny tworzą oryginalne obrazy w określonym stylu, piszą spójne akapity tekstu, komponują przyjemną w odbiorze muzykę i generują prawdopodobne scenariusze zdarzeń. Ta “generatywna rewolucja” już się zaczęła, a jej efekty przekraczają najśmielsze wyobrażenia.

Ta książka jest praktycznym przewodnikiem przeznaczonym dla inżynierów uczenia maszynowego i analityków danych. W jasny i przystępny sposób omówiono w niej zasadnicze zagadnienia teorii modelowania generatywnego, a następnie zaprezentowano techniki stosowane do budowy modeli generatywnych, włącznie z ogólnym opisem uczenia głębokiego, wariacyjnych autoenkoderów i generatywnych sieci antagonistycznych (GAN). Na tej podstawie – z wykorzystaniem biblioteki Keras – pokazano wewnętrzne funkcjonowanie każdej z tych technik, łącznie z najbardziej nowatorskimi architekturami. Opisano krok po kroku sposoby rozwiązywania takich twórczych zadań jak malowanie, pisanie i komponowanie muzyki, a także zastosowania modelowania generatywnego do optymalizacji strategii grania w gry (modele World).

W książce między innymi:
– działanie autoenkoderów wariacyjnych
– tworzenie sieci GAN, w tym CycleGAN i MuseGAN
– rekurencyjne modele generatywne do tworzenia tekstu oraz mechanizmy uwagi
– modele generatywne w środowiskach uczenia przez wzmacnianie
– architektura Transformer (BERT, GPT-2) oraz modele generowania obrazu

Kategorie: , Znacznik: