Checkpoint 1

Training setup

The training was perfomed on the LUMI supercomputer within the DeployAI EU project. Based of the base model AI-Sweden-Models/Llama-3-8B.

How to use

import transformers
import torch

model_id = "AI-Sweden-Models/Llama-3-8B-instruct"

pipeline = transformers.pipeline(
    "text-generation",
    model=model_id,
    model_kwargs={"torch_dtype": torch.bfloat16},
    device_map="auto",
)

messages = [
    {"role": "system", "content": "Du Γ€r en hjΓ€lpsam assistant som svarar klokt och vΓ€nligt."},
    {"role": "user", "content": "Hur gΓΆr man pannkakor? Och vad behΓΆver man handla? Undrar ocksΓ₯ vad 5+6 Γ€r.."},
]

terminators = [
    pipeline.tokenizer.eos_token_id,
    pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
]

outputs = pipeline(
    messages,
    max_new_tokens=256,
    eos_token_id=terminators,
    do_sample=True,
    temperature=0.6,
    top_p=0.9,
)
print(outputs[0]["generated_text"][-1])
>>> "FΓΆr att gΓΆra pannkakor behΓΆver du fΓΆljande ingredienser:
- 1 kopp vetemjΓΆl
- 1 tesked bakpulver
- 1/4 tesked salt
- 1 kopp mjΓΆlk
- 1 stort Γ€gg
- 2 matskedar smΓ€lt smΓΆr eller olja

FΓΆr att bΓΆrja, blanda vetemjΓΆlet, bakpulvret och saltet i en bunke. I en annan skΓ₯l, vispa ihop mjΓΆlken, Γ€gget och smΓΆret eller oljan. 
TillsΓ€tt de vΓ₯ta ingredienserna till de torra ingredienserna och blanda tills det Γ€r vΓ€l blandat. 
LΓ₯t smeten vila i cirka 10 minuter.

FΓΆr att gΓΆra pannkakorna, vΓ€rm en non-stick-panna eller stekpanna ΓΆver medelvΓ€rme. 
NΓ€r den Γ€r varm, hΓ€ll smeten pΓ₯ pannan och grΓ€dda tills kanterna bΓΆrjar torka ut och toppen Γ€r fast. 
VΓ€nd pannkakan med en stekspade och grΓ€dda den andra sidan tills den Γ€r gyllenbrun. 
Upprepa med resten av smeten.

NΓ€r det gΓ€ller 5+6 Γ€r svaret 11."
Downloads last month
1,149
Safetensors
Model size
8.03B params
Tensor type
BF16
Β·
Inference Providers NEW
Input a message to start chatting with AI-Sweden-Models/Llama-3-8B-instruct.

Model tree for AI-Sweden-Models/Llama-3-8B-instruct

Finetuned
(3)
this model
Adapters
5 models
Finetunes
16 models
Quantizations
10 models

Spaces using AI-Sweden-Models/Llama-3-8B-instruct 8

Collection including AI-Sweden-Models/Llama-3-8B-instruct