import streamlit as st
import transformers
from transformers import pipeline
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
torch.manual_seed(0)

tokenizer_name = "sberbank-ai/ruRoberta-large"
model_name = "orzhan/ruroberta-ruatd-binary"


def load_model(model_name):
		tokenizer=AutoTokenizer.from_pretrained(tokenizer_name)
		model = AutoModelForSequenceClassification.from_pretrained(model_name)
		return pipeline(task="text-classification",model=model,tokenizer=tokenizer)
	
model = load_model(model_name)



default_value = "Никто ни разу не навестил меня в больнице"
examples = [default_value,
"Под монастырем, на самой верхушке скалы, обнаружил почти 200 древних археологических находок.",
"Они чем-то кормились на земле и только в случае тревоги взлетали на деревья.",
"--- свой текст ---"]

#prompts
st.title("Демо определения сгенерированного текста")
sent = st.selectbox("Пример", examples)
if sent == "--- свой текст ---":
    sent = st.text_area("Исходный текст", default_value)
#if custom_sent == default_value:
#    custom_sent = sent

st.button('Сгенерировано или нет?')

pred = model(sent)

#st.write("Преобразованный текст: ", pred)

if pred[0]['label'] == "LABEL_0":
		st.write("Текст сгенерирован");
else:
		st.write("Текст написан человеком");

#[
#  {
#    "label": "LABEL_0",
#    "score": 0.9995750784873962
#  }
#]