-
Notifications
You must be signed in to change notification settings - Fork 22
/
Copy path4_prompt_templates.py
71 lines (51 loc) · 2.24 KB
/
4_prompt_templates.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
from langchain.llms import OpenAI
from dotenv import load_dotenv
import os
load_dotenv("../secret/keys.env")
OPENAI_API_KEY = os.getenv("OPENAI_API_KEY")
os.environ['OPENAI_API_KEY'] = OPENAI_API_KEY
llm_gpt3_5 = OpenAI(
model_name="gpt-3.5-turbo",
n=1,
temperature=0.3
)
prompt_argentino = """Respondé la pregunta basándote en el contexto de abajo. Si la
pregunta no puede ser respondida usando la información proporcionada,
respondé con "Ni idea, che".
Contexto: Los Modelos de Lenguaje de Gran Escala (MLGEs) son lo último en modelos usados en el Procesamiento del Lenguaje Natural (NLP).
Su desempeño superior a los modelos más chicos los hizo increíblemente
útiles para los desarrolladores que arman aplicaciones con NLP. Estos modelos
se pueden acceder vía la librería `transformers` de Hugging Face, vía OpenAI
usando la librería `openai`, y vía Cohere usando la librería `cohere`.
Pregunta: ¿Qué librerías están cerca de Buenos Aires?
Respuesta (escribe como argentina informal): """
print(llm_gpt3_5(prompt_argentino))
print("*"*64)
from langchain import PromptTemplate
plantilla_colombiana = """Responde a la pregunta con base en el siguiente contexto, parce. Si la
pregunta no puede ser respondida con la información proporcionada, responde
con "No tengo ni idea, ome".
Contexto: Los Modelos de Lenguaje Grandes (LLMs) son los últimos modelos utilizados en PNL.
Su rendimiento superior sobre los modelos más pequeños los ha hecho increíblemente
útiles para los desarrolladores que construyen aplicaciones habilitadas para PNL. Estos modelos
pueden ser accedidos a través de la biblioteca `transformers` de Hugging Face, a través de OpenAI
usando la biblioteca `openai`, y a través de Cohere usando la biblioteca `cohere`.
Pregunta: {pregunta}
Respuesta (escribe como colombiano informal): """
prompt_plantilla_colombiana = PromptTemplate(
input_variables=["pregunta"],
template=plantilla_colombiana
)
from langchain import LLMChain
llm_gpt3_5_chain = LLMChain(
prompt=prompt_plantilla_colombiana,
llm=llm_gpt3_5
)
pregunta = "Qué son los LLMs?"
ans = llm_gpt3_5_chain.run(pregunta)
print(ans)
print("*"*64)
pregunta = "Qué son las RAFGSERS?"
ans = llm_gpt3_5_chain.run(pregunta)
print(ans)
print("*"*64)