Free views, likes and subscribers at YouTube. Now!
Get Free YouTube Subscribers, Views and Likes

Fine-tuning LLM: fakty i mity

Follow
DataWorkshop

Zastanawiasz się, jak powstają modele AI, takie jak ChatGPT? Wiesz, że trening takiego modelu może kosztować tyle, co luksusowy apartament w Warszawie? A ile to zajmuje czasu? W 123. odcinku podcastu "Biznes Myśli" odkrywamy tajniki finetuningu modeli LLM! Naszym gościem jest Remigiusz Kinas, ekspert AI z projektu SpeakLeash. Rozmawiamy o faktach i mitach treningu modeli językowych.

Subskrybuj i włącz powiadomienia Twoja droga do praktycznego AI/ML zaczyna się od jednego kliknięcia:    / @dataworkshop  
Zostaw like, bo więcej lajków = więcej praktycznych treści dla Ciebie!
Co o tym myślisz? Zostaw komentarz! Masz pytanie? Zadaj je chętnie odpowiem.
Poznajmy się lepiej! Zaproś mnie do swojej sieci na LinkedIn:   / vladimiralekseichenko  
Zainicjuj rozmowę o ML w firmie, polecając ten podcast. Zainspiruj zespół do wdrażania ML!


Partnerem podcastu jest DataWorkshop.

W tym odcinku koncentrujemy się na wyjaśnieniu kluczowych etapów trenowania modeli LLM, takich jak pretraining, finetuning oraz alignment, oraz na omówieniu ich zastosowań i wyzwań.

Dowiesz się:
Jak wygląda proces trenowania dużych modeli językowych od podstaw?
Czym jest finetuning i kiedy warto go stosować?
Jakie są kluczowe etapy tworzenia modeli AI i dlaczego dane są tak ważne?
Jakie superkomputery są używane do trenowania AI i ile to kosztuje?
Jak wygląda praca nad polskim modelem językowym Bielik 2.0?


Chcesz więcej? Zajrzyj do moich kursów online i ucz się ML i analizy danych w praktyce!
DS/ML od podstaw https://dataworkshop.eu/pl/practical...
Python https://dataworkshop.eu/pl/intropython
Statystyka https://dataworkshop.eu/statistics
SQL https://dataworkshop.eu/pl/sql
Time Series https://dataworkshop.eu/pl/timeseries
NLP https://dataworkshop.eu/pl/nlp

Najważniejsze fragmenty:
00:01:52 Remigiusz Kinas przedstawia się i opowiada o swoim doświadczeniu z ML/AI
00:08:57 Wyjaśnienie czym jest finetuning modeli na przykładzie Computer Vision
00:14:23 Omówienie różnych rodzajów modeli językowych (pretrained, instruct, finetuned)
00:30:00 Czym jest T? Trilion czy bilion?
00:31:05 Ile danych potrzebujemy?
00:43:53 Cyfronet Helios, czyli na czym był trenowany Bielik?
00:47:15 Ile kart GPU ma Meta (Facebook)?
00:27:34 Dlaczego dane są najważniejsze w procesie trenowania modeli AI
00:53:00 Ile kosztuje wytrenować model LLM?
00:58:32 Czy warto robić finetuning?
01:09:07 Co nowego w Bieliku 2?
01:24:42 Podsumowanie

Linki:
https://biznesmysli.pl/finetuningll...
https://ai.meta.com/blog/metallama3/
https://opencsg.com/datasets/AIWizard...
https://top500.org/lists/green500/lis...
https://github.com/metallama/llama/b...
https://github.com/NVIDIA/MegatronLM
https://github.com/hiyouga/LLaMAFactory
https://arxiv.org/pdf/2406.06608
https://github.com/vllmproject/vllm


W podcaście omówiono:

Rodzaje modeli LLM:
Model bazowy (pretrained): Posiada ogromną wiedzę, ale nie potrafi prowadzić konwersacji służy do przewidywania następnego słowa.
Model instrukcyjny (instruct): Potrafi wykonywać polecenia i prowadzić konwersacje. Powstaje poprzez finetuning modelu bazowego.
Model po alignmencie: Model instrukcyjny dodatkowo "wygładzony" i dostosowany do preferowanego stylu konwersacji.

Fazy trenowania modelu:
Pretraining: Najważniejsza faza, w której model nabywa wiedzę. Wymaga ogromnych zbiorów danych i jest bardzo kosztowna (rzędu setek tysięcy dolarów).
Finetuning: Dostrajanie modelu do konkretnych zadań. Wymaga mniejszych zbiorów danych i jest tańszy od pretrainu.
Alignment: Dopasowanie stylu i sposobu odpowiedzi modelu. Wymaga najmniej danych i jest najtańszy.

Dane:
Pretraining: Dane tekstowe w ogromnej ilości (terabajty), im więcej, tym lepiej. Ważna jest jakość danych.
Finetuning: Instrukcje dla modelu (polecenia i przykładowe odpowiedzi) w ilości od tysięcy do milionów.
Alignment: Pary odpowiedzi (preferowana i odrzucona) w ilości kilku tysięcy.

Koszty:
Pretraining: Bardzo wysokie, porównywalne z ceną mieszkania w Warszawie.
Finetuning: Znacznie niższe od pretrainu.
Alignment: Niskie, możliwe do przeprowadzenia na lokalnej maszynie.

Słuchaj BM wygodnie na Spotify, Apple Podcasts lub Google Podcasts:
https://open.spotify.com/show/3ZUaHom...
https://podcasts.apple.com/us/podcast...
   • Biznes Myśli  


#ai #genai #llm #podcast #machinelearning #datascience #finetuning #bielik

posted by encauceesuw