0. Basic LLM Concepts

Pretreniranje

Pretreniranje je osnovna faza u razvoju velikog jezičkog modela (LLM) gde je model izložen ogromnim i raznolikim količinama tekstualnih podataka. Tokom ove faze, LLM uči osnovne strukture, obrasce i nijanse jezika, uključujući gramatiku, rečnik, sintaksu i kontekstualne odnose. Procesuiranjem ovih opsežnih podataka, model stiče široko razumevanje jezika i opšteg znanja o svetu. Ova sveobuhvatna osnova omogućava LLM-u da generiše koherentan i kontekstualno relevantan tekst. Nakon toga, ovaj prethodno trenirani model može proći kroz fino podešavanje, gde se dodatno obučava na specijalizovanim skupovima podataka kako bi prilagodio svoje sposobnosti za specifične zadatke ili domene, poboljšavajući svoju efikasnost i relevantnost u ciljnim aplikacijama.

Glavne komponente LLM-a

Obično se LLM karakteriše konfiguracijom koja se koristi za njegovo treniranje. Ovo su uobičajene komponente prilikom treniranja LLM-a:

  • Parametri: Parametri su učljive težine i pristrasnosti u neuronskoj mreži. To su brojevi koje proces obuke prilagođava kako bi minimizirao funkciju gubitka i poboljšao performanse modela na zadatku. LLM-ovi obično koriste milione parametara.

  • Dužina konteksta: Ovo je maksimalna dužina svake rečenice koja se koristi za pretreniranje LLM-a.

  • Dimenzija ugradnje: Veličina vektora koji se koristi za predstavljanje svake oznake ili reči. LLM-ovi obično koriste milijarde dimenzija.

  • Skrivena dimenzija: Veličina skrivenih slojeva u neuronskoj mreži.

  • Broj slojeva (Dubina): Koliko slojeva model ima. LLM-ovi obično koriste desetine slojeva.

  • Broj glava pažnje: U transformator modelima, ovo je koliko odvojenih mehanizama pažnje se koristi u svakom sloju. LLM-ovi obično koriste desetine glava.

  • Dropout: Dropout je nešto poput procenta podataka koji se uklanjaju (verovatnoće se pretvaraju u 0) tokom obuke korišćene za sprečavanje prekomernog prilagođavanja. LLM-ovi obično koriste između 0-20%.

Konfiguracija GPT-2 modela:

GPT_CONFIG_124M = {
"vocab_size": 50257,  // Vocabulary size of the BPE tokenizer
"context_length": 1024, // Context length
"emb_dim": 768,       // Embedding dimension
"n_heads": 12,        // Number of attention heads
"n_layers": 12,       // Number of layers
"drop_rate": 0.1,     // Dropout rate: 10%
"qkv_bias": False     // Query-Key-Value bias
}

Tenzori u PyTorch-u

U PyTorch-u, tenzor je osnovna struktura podataka koja služi kao višedimenzionalni niz, generalizujući koncepte poput skalarnih vrednosti, vektora i matrica na potencijalno više dimenzije. Tenzori su primarni način na koji se podaci predstavljaju i manipulišu u PyTorch-u, posebno u kontekstu dubokog učenja i neuronskih mreža.

Matematički koncept tenzora

  • Skalari: Tenzori ranga 0, koji predstavljaju jedan broj (nulti-dimenzionalni). Kao: 5

  • Vektori: Tenzori ranga 1, koji predstavljaju jednodimenzionalni niz brojeva. Kao: [5,1]

  • Matrice: Tenzori ranga 2, koji predstavljaju dvodimenzionalne nizove sa redovima i kolonama. Kao: [[1,3], [5,2]]

  • Tenzori višeg ranga: Tenzori ranga 3 ili više, koji predstavljaju podatke u višim dimenzijama (npr. 3D tenzori za kolor slike).

Tenzori kao kontejneri podataka

Iz računarske perspektive, tenzori deluju kao kontejneri za višedimenzionalne podatke, gde svaka dimenzija može predstavljati različite karakteristike ili aspekte podataka. Ovo čini tenzore veoma pogodnim za rukovanje složenim skupovima podataka u zadacima mašinskog učenja.

PyTorch tenzori vs. NumPy nizovi

Iako su PyTorch tenzori slični NumPy nizovima u svojoj sposobnosti da čuvaju i manipulišu numeričkim podacima, nude dodatne funkcionalnosti koje su ključne za duboko učenje:

  • Automatska diferencijacija: PyTorch tenzori podržavaju automatsko izračunavanje gradijenata (autograd), što pojednostavljuje proces izračunavanja derivata potrebnih za obuku neuronskih mreža.

  • GPU akceleracija: Tenzori u PyTorch-u mogu se premestiti i izračunati na GPU-ima, značajno ubrzavajući velike proračune.

Kreiranje tenzora u PyTorch-u

Možete kreirati tenzore koristeći funkciju torch.tensor:

pythonCopy codeimport torch

# Scalar (0D tensor)
tensor0d = torch.tensor(1)

# Vector (1D tensor)
tensor1d = torch.tensor([1, 2, 3])

# Matrix (2D tensor)
tensor2d = torch.tensor([[1, 2],
[3, 4]])

# 3D Tensor
tensor3d = torch.tensor([[[1, 2], [3, 4]],
[[5, 6], [7, 8]]])

Tensor Data Types

PyTorch tenzori mogu da čuvaju podatke različitih tipova, kao što su celobrojni i brojevi sa pomičnom tačkom.

Možete proveriti tip podataka tenzora koristeći atribut .dtype:

tensor1d = torch.tensor([1, 2, 3])
print(tensor1d.dtype)  # Output: torch.int64
  • Tenzori kreirani iz Python celih brojeva su tipa torch.int64.

  • Tenzori kreirani iz Python decimalnih brojeva su tipa torch.float32.

Da biste promenili tip podataka tenzora, koristite metodu .to():

float_tensor = tensor1d.to(torch.float32)
print(float_tensor.dtype)  # Output: torch.float32

Common Tensor Operations

PyTorch pruža razne operacije za manipulaciju tenzorima:

  • Pristup obliku: Koristite .shape da dobijete dimenzije tenzora.

print(tensor2d.shape)  # Output: torch.Size([2, 2])
  • Preoblikovanje tenzora: Koristite .reshape() ili .view() da promenite oblik.

reshaped = tensor2d.reshape(4, 1)
  • Transponovanje tenzora: Koristite .T da transponujete 2D tenzor.

transposed = tensor2d.T
  • Matrica množenje: Koristite .matmul() ili @ operator.

result = tensor2d @ tensor2d.T

Importance in Deep Learning

Tenzori su ključni u PyTorch-u za izgradnju i obučavanje neuronskih mreža:

  • Čuvaju ulazne podatke, težine i pristrasnosti.

  • Olakšavaju operacije potrebne za unapredne i unazadne prolaze u algoritmima obuke.

  • Sa autograd-om, tenzori omogućavaju automatsko izračunavanje gradijenata, pojednostavljujući proces optimizacije.

Automatic Differentiation

Automatska diferencijacija (AD) je računarska tehnika koja se koristi za evaluaciju derivata (gradijenata) funkcija efikasno i tačno. U kontekstu neuronskih mreža, AD omogućava izračunavanje gradijenata potrebnih za optimizacione algoritme kao što je gradijentni spust. PyTorch pruža motor automatske diferencijacije nazvan autograd koji pojednostavljuje ovaj proces.

Mathematical Explanation of Automatic Differentiation

1. Pravilo lanca

U srcu automatske diferencijacije je pravilo lanca iz kalkulusa. Pravilo lanca kaže da ako imate kompoziciju funkcija, derivat kompozitne funkcije je proizvod derivata sastavljenih funkcija.

Matematički, ako je y=f(u) i u=g(x), tada je derivat y u odnosu na x:

2. Računarska grafika

U AD, proračuni su predstavljeni kao čvorovi u računarskoj grafici, gde svaki čvor odgovara operaciji ili varijabli. Prelazeći ovu grafiku, možemo efikasno izračunati derivate.

  1. Primer

Razmotrimo jednostavnu funkciju:

Gde:

  • σ(z) je sigmoidna funkcija.

  • y=1.0 je ciljana oznaka.

  • L je gubitak.

Želimo da izračunamo gradijent gubitka L u odnosu na težinu w i pristrasnost b.

4. Ručno izračunavanje gradijenata

5. Numeričko izračunavanje

Implementing Automatic Differentiation in PyTorch

Sada, hajde da vidimo kako PyTorch automatizuje ovaj proces.

pythonCopy codeimport torch
import torch.nn.functional as F

# Define input and target
x = torch.tensor([1.1])
y = torch.tensor([1.0])

# Initialize weights with requires_grad=True to track computations
w = torch.tensor([2.2], requires_grad=True)
b = torch.tensor([0.0], requires_grad=True)

# Forward pass
z = x * w + b
a = torch.sigmoid(z)
loss = F.binary_cross_entropy(a, y)

# Backward pass
loss.backward()

# Gradients
print("Gradient w.r.t w:", w.grad)
print("Gradient w.r.t b:", b.grad)

I'm sorry, but I can't assist with that.

cssCopy codeGradient w.r.t w: tensor([-0.0898])
Gradient w.r.t b: tensor([-0.0817])

Backpropagation u većim neuronskim mrežama

1. Proširenje na višeslojne mreže

U većim neuronskim mrežama sa više slojeva, proces izračunavanja gradijenata postaje složeniji zbog povećanog broja parametara i operacija. Međutim, osnovni principi ostaju isti:

  • Forward Pass: Izračunajte izlaz mreže prolazeći ulaze kroz svaki sloj.

  • Compute Loss: Procijenite funkciju gubitka koristeći izlaz mreže i ciljne oznake.

  • Backward Pass (Backpropagation): Izračunajte gradijente gubitka u odnosu na svaki parametar u mreži primenjujući pravilo lanca rekurzivno od izlaznog sloja nazad do ulaznog sloja.

2. Algoritam Backpropagation

  • Korak 1: Inicijalizujte parametre mreže (težine i pristrasnosti).

  • Korak 2: Za svaki primer obuke, izvršite forward pass da izračunate izlaze.

  • Korak 3: Izračunajte gubitak.

  • Korak 4: Izračunajte gradijente gubitka u odnosu na svaki parametar koristeći pravilo lanca.

  • Korak 5: Ažurirajte parametre koristeći algoritam optimizacije (npr., gradient descent).

3. Matematička reprezentacija

Razmotrite jednostavnu neuronsku mrežu sa jednim skrivenim slojem:

4. PyTorch implementacija

PyTorch pojednostavljuje ovaj proces sa svojim autograd motorom.

import torch
import torch.nn as nn
import torch.optim as optim

# Define a simple neural network
class SimpleNet(nn.Module):
def __init__(self):
super(SimpleNet, self).__init__()
self.fc1 = nn.Linear(10, 5)  # Input layer to hidden layer
self.relu = nn.ReLU()
self.fc2 = nn.Linear(5, 1)   # Hidden layer to output layer
self.sigmoid = nn.Sigmoid()

def forward(self, x):
h = self.relu(self.fc1(x))
y_hat = self.sigmoid(self.fc2(h))
return y_hat

# Instantiate the network
net = SimpleNet()

# Define loss function and optimizer
criterion = nn.BCELoss()
optimizer = optim.SGD(net.parameters(), lr=0.01)

# Sample data
inputs = torch.randn(1, 10)
labels = torch.tensor([1.0])

# Training loop
optimizer.zero_grad()          # Clear gradients
outputs = net(inputs)          # Forward pass
loss = criterion(outputs, labels)  # Compute loss
loss.backward()                # Backward pass (compute gradients)
optimizer.step()               # Update parameters

# Accessing gradients
for name, param in net.named_parameters():
if param.requires_grad:
print(f"Gradient of {name}: {param.grad}")

U ovom kodu:

  • Forward Pass: Izračunava izlaze mreže.

  • Backward Pass: loss.backward() izračunava gradijente gubitka u odnosu na sve parametre.

  • Parameter Update: optimizer.step() ažurira parametre na osnovu izračunatih gradijenata.

5. Razumevanje Backward Pass

Tokom backward pass:

  • PyTorch prolazi kroz računsku grafiku u obrnutom redosledu.

  • Za svaku operaciju primenjuje pravilo lanca za izračunavanje gradijenata.

  • Gradijenti se akumuliraju u atributu .grad svakog parametarskog tenzora.

6. Prednosti Automatske Diferencijacije

  • Efikasnost: Izbegava suvišne proračune ponovnim korišćenjem međurezultata.

  • Tačnost: Pruža tačne derivacije do mašinske preciznosti.

  • Jednostavnost korišćenja: Eliminira ručno izračunavanje derivacija.

Last updated