date_collected
stringclasses 1
value | repo_name
stringlengths 6
116
| file_name
stringlengths 2
220
| file_contents
stringlengths 13
357k
| prompts
sequence |
---|---|---|---|---|
2024-01-10 | normand1/HyperFeeder | podcastTextGenerationApp~podcastIntroPlugins~utilities~podcastIntroWriter.py | from langchain.prompts import PromptTemplate
from langchain.llms import OpenAI
from langchain.chains import LLMChain
import os
class PodcastIntroWriter:
def writeIntro(self, allStoryTitles, podcastName, typeOfPodcast):
llm = OpenAI(
model=os.getenv("OPENAI_MODEL_SUMMARY"),
max_tokens=int(os.getenv("OPENAI_MAX_TOKENS_SUMMARY")),
temperature=0.3,
)
templateString = os.getenv("INTRO_TEMPLATE_STRING")
prompt = PromptTemplate(
input_variables=["allStoryTitles", "podcastName", "typeOfPodcast"],
template=templateString,
)
chain = LLMChain(llm=llm, prompt=prompt)
return chain.run(
{
"allStoryTitles": allStoryTitles,
"podcastName": podcastName,
"typeOfPodcast": typeOfPodcast,
}
)
| [
"INTRO_TEMPLATE_STRING",
"typeOfPodcast",
"podcastName",
"allStoryTitles"
] |
2024-01-10 | normand1/HyperFeeder | podcastTextGenerationApp~podcastOutroWriterPlugins~outroWriterPlugin.py | import os
from langchain.prompts import PromptTemplate
from langchain.llms import OpenAI
from langchain.chains import LLMChain
from podcastOutroWriterPlugins.baseOutroWriterPlugin import BaseOutroWriterPlugin
class OutroWriterPlugin(BaseOutroWriterPlugin):
def identify(self) -> str:
return "🎸 outro writer plugin"
def writeOutro(self, stories, introText):
print("Writing funny Outro")
llm = OpenAI(
model=os.getenv("OPENAI_MODEL_SUMMARY"),
max_tokens=int(os.getenv("OPENAI_MAX_TOKENS_OUTRO")),
temperature=0.3,
)
templateString = os.getenv("OUTRO_TEMPLATE_STRING")
prompt = PromptTemplate(
input_variables=["introText"],
template=templateString,
)
chain = LLMChain(llm=llm, prompt=prompt)
return chain.run(introText)
plugin = OutroWriterPlugin()
| [
"OUTRO_TEMPLATE_STRING",
"introText"
] |
2024-01-10 | normand1/HyperFeeder | podcastTextGenerationApp~podcastSummaryPlugins~storySummaryPlugin.py | import os
from podcastSummaryPlugins.baseSummaryPlugin import BaseSummaryPlugin
from langchain import OpenAI
from langchain.docstore.document import Document
from langchain.chains.summarize import load_summarize_chain
from langchain.prompts import PromptTemplate
class StorySummaryPlugin(BaseSummaryPlugin):
def identify(self) -> str:
return "📓 OpenAI Summarizer"
def summarizeText(self, story):
url = story["link"]
print("Summarizing: " + url)
texts = self.prepareForSummarization(story["rawSplitText"])
summaryText = self.summarize(texts)
return summaryText
def summarize(self, texts):
prompt_template = """Write a detailed summary of the following:
{text}
DETAILED SUMMARY:"""
PROMPT = PromptTemplate(template=prompt_template, input_variables=["text"])
MAX_SUMMARY_SEGMENTS = int(os.getenv("MAX_SUMMARY_SEGMENTS"))
docs = [Document(page_content=text) for text in texts[:MAX_SUMMARY_SEGMENTS]]
llm = OpenAI(model=os.getenv("OPENAI_MODEL_SUMMARY"), temperature=0.2)
chain = load_summarize_chain(
llm, chain_type="map_reduce", map_prompt=PROMPT, combine_prompt=PROMPT
)
result = chain.run(docs)
return result
plugin = StorySummaryPlugin()
| [
"Write a detailed summary of the following:\n {text}\n DETAILED SUMMARY:"
] |
2024-01-10 | normand1/HyperFeeder | podcastTextGenerationApp~podcastSegmentWriterPlugins~utilities~storySegmentWriter.py | import os
from langchain.prompts import PromptTemplate
from langchain.llms import OpenAI
from langchain.chains import LLMChain
class StorySegmentWriter:
def writeSegmentFromSummary(self, storySummary):
llm = OpenAI(
model=os.getenv("OPENAI_MODEL_SUMMARY"),
max_tokens=int(os.getenv("OPENAI_MAX_TOKENS_SUMMARY")),
temperature=0.3,
)
templateString = os.getenv("SEGMENT_WRITER_STRING")
prompt = PromptTemplate(
input_variables=["storySummary"],
template=templateString,
)
chain = LLMChain(llm=llm, prompt=prompt)
return chain.run(storySummary)
| [
"storySummary",
"SEGMENT_WRITER_STRING"
] |
2024-01-10 | platisd/sycophant | sycophant.py | #!/usr/bin/env python3
import sys
import argparse
import json
import re
from io import BytesIO
from datetime import datetime, timedelta
from pathlib import Path
from openai import OpenAI
from bs4 import BeautifulSoup
from PIL import Image
from jinja2 import Environment, FileSystemLoader
import yaml
import requests
# Tags and attributes to search for in the HTML response to find the article content
CONTENT_QUERIES = [
("article", {"class": "article-content"}),
("article", {}),
("p", {"class": "story-body-text story-content"}),
("div", {"class": "article-body"}),
("div", {"class": "content"}),
("div", {"class": "entry"}),
("div", {"class": "post"}),
("div", {"class": "blog-post"}),
("div", {"class": "article-content"}),
("div", {"class": "article-body"}),
("div", {"class": "article-text"}),
("div", {"class": "article-wrapper"}),
("div", {"class": "story"}),
("div", {"id": "article"}),
("div", {"id": "content"}),
("div", {"id": "entry"}),
("div", {"id": "post"}),
("div", {"id": "blog-post"}),
("div", {"id": "article-content"}),
("div", {"id": "article-body"}),
("div", {"id": "article-text"}),
("div", {"id": "article-wrapper"}),
("section", {"class": "article-body"}),
("section", {"class": "article-content"}),
]
# Tags and attributes to search for in the HTML response to find the article title
TITLE_QUERIES = [
("title", {}),
("h1", {"class": "story-body__h1"}),
("h1", {"class": "story-body__h1"}),
("h1", {"class": "entry-title"}),
("h1", {"class": "post-title"}),
("h1", {"class": "blog-post-title"}),
("h1", {"class": "article-title"}),
("h1", {"class": "entry-title"}),
("h1", {"class": "post-title"}),
("h1", {"class": "blog-post-title"}),
("h1", {"class": "article-title"}),
("h1", {"class": "entry-title"}),
]
def get_news(topic: str, since_date: datetime, api_key: str):
url = "https://newsapi.org/v2/everything"
params = {
"q": topic,
"from": since_date.strftime("%Y-%m-%d"),
"language": "en",
"sortBy": "relevancy",
"apiKey": api_key,
}
response = requests.get(url, params=params)
return response.json()
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--openai-api-key", help="OpenAI API key", required=True)
parser.add_argument("--news-api-key", help="News API key", required=True)
parser.add_argument("--config", help="Path to the config YAML", required=True)
parser.add_argument(
"--rewrite-article",
help="Rewrite the specified article, only article name required",
required=False,
)
parser.add_argument(
"--rewrite-prompt", help="Prompt to use for rewriting", required=False
)
parser.add_argument(
"--links",
help="Write an article based on provided links (one URL on each line)",
required=False,
)
args = parser.parse_args()
# Load the config file
with open(args.config, "r") as f:
config = yaml.safe_load(f)
if args.rewrite_article:
return rewrite_article(
openai_client=OpenAI(api_key=args.openai_api_key),
openai_model=config["openai"]["model"],
openai_temperature=config["openai"]["temperature"],
openai_rewrite_prompt=args.rewrite_prompt,
article_path=Path(config["blog"]["posts"]) / args.rewrite_article.strip(),
)
return write_article(
openai_api_key=args.openai_api_key,
openai_model=config["openai"]["model"],
openai_max_tokens=config["openai"]["max_tokens"],
openai_temperature=config["openai"]["temperature"],
openai_article_summary_prompt=config["openai"]["article_summary_prompt"],
openai_final_article_prompt=config["openai"]["final_article_prompt"],
openai_final_title_prompt=config["openai"]["final_title_prompt"],
image_generation_model=config["openai"]["dalle_model"],
openai_prompt_for_dalle=config["openai"]["dalle_prompt"],
news_api_key=args.news_api_key,
topic_to_search=config["news"]["topic"],
max_article_age=config["news"]["max_age_in_days"],
max_articles=config["news"]["max_articles"],
assets_dir=config["blog"]["assets"],
posts_dir=config["blog"]["posts"],
post_template_path=config["blog"]["post_template"],
attribution=config["blog"].get("attribution", True),
provided_links=args.links,
)
def write_article(
openai_api_key: str,
openai_model: str,
openai_max_tokens: int,
openai_temperature: float,
openai_article_summary_prompt: str,
openai_final_article_prompt: str,
image_generation_model: str,
openai_final_title_prompt: str,
openai_prompt_for_dalle: str,
news_api_key: str,
topic_to_search: str,
max_article_age: float,
max_articles: int,
assets_dir: str,
posts_dir: str,
post_template_path: str,
attribution: bool,
provided_links: str,
):
if not provided_links or provided_links == "":
date_to_search_from = datetime.now() - timedelta(days=max_article_age)
# Get news as a JSON dictionary through the News API (newsapi.org)
print("Searching for primary sources on subject: {}".format(topic_to_search))
news = get_news(
topic=topic_to_search, since_date=date_to_search_from, api_key=news_api_key
)
if news["status"] != "ok":
print("Error: News API returned status code: {}".format(news["status"]))
return 1
article_titles_and_urls = [
(article["title"], article["url"]) for article in news["articles"]
]
print("Found {} articles".format(len(article_titles_and_urls)))
else:
article_urls = provided_links.split("\n")
# We need to get the titles of the articles so to form an article_titles_and_urls list
article_titles_and_urls = []
for article_url in article_urls:
try:
response = requests.get(article_url)
except Exception as e:
print(
"Exception while getting article from URL: {}".format(article_url)
)
return 1 # We don't want to continue if we can't get all articles
if response.status_code != 200:
print(
"Error code {} while getting article from URL: {}".format(
response.status_code, article_url
)
)
return 1
# Find the article title
soup = BeautifulSoup(response.content, "html.parser")
for tag, attrs in TITLE_QUERIES:
article_title = soup.find(tag, attrs)
if article_title is not None:
break
if article_title is None:
print(
"Error: Could not find article title in HTML response from URL: {}".format(
article_url
)
)
article_title_text = article_url[:50]
article_title_text += "..."
else:
article_title_text = article_title.get_text()
# Replace any \n, \t, etc. characters in the text with spaces
article_title_text = " ".join(article_title_text.split())
article_title_text = article_title_text.strip()
article_titles_and_urls.append((article_title_text, article_url))
max_allowed_tokens = openai_max_tokens
characters_per_token = 4 # The average number of characters per token
max_allowed_characters = max_allowed_tokens * characters_per_token
summarized_articles = []
original_articles_urls = [] # Only the titles and the URLs of the articles we use
print("Summarizing the top-{} articles...".format(max_articles))
for article_title, article_url in article_titles_and_urls:
try:
response = requests.get(article_url)
except Exception as e:
print("Exception while getting article from URL: {}".format(article_url))
continue
if response.status_code != 200:
print(
"Error code {} while getting article from URL: {}".format(
response.status_code, article_url
)
)
continue
# Find the actual article content in the HTML response using the relevant SEO tags
soup = BeautifulSoup(response.text, "html.parser")
for tag, attrs in CONTENT_QUERIES:
article_content = soup.find(tag, attrs)
if article_content is not None:
break
if article_content is None:
print(
"Error: Could not find article content in HTML response from URL: {}".format(
article_url
)
)
continue
# Get the text from the article content
article_text = article_content.get_text()
# Replace any \n, \t, etc. characters in the text with spaces
article_text = " ".join(article_text.split())
prompt = (
openai_article_summary_prompt
+ "\n\n```\n"
+ article_title
+ "\n\n"
+ article_text
+ "\n```"
)
if len(prompt) > max_allowed_characters:
prompt = prompt[:max_allowed_characters]
openai_client = OpenAI(api_key=openai_api_key)
generated_summary = get_openai_response(
prompt=prompt,
model=openai_model,
temperature=openai_temperature,
openai_client=openai_client,
)
summarized_articles.append(generated_summary)
original_articles_urls.append({"url": article_url, "title": article_title})
if len(summarized_articles) >= max_articles:
break
if len(summarized_articles) == 0:
print("Error: Could not summarize any articles")
return 1
print("Generating the final article...")
final_article_prompt = openai_final_article_prompt + "\n" + str(summarized_articles)
final_article = {}
final_article["content"] = get_openai_response(
prompt=final_article_prompt,
model=openai_model,
temperature=openai_temperature,
openai_client=openai_client,
)
final_title_prompt = openai_final_title_prompt + "\n" + final_article["content"]
final_article["title"] = get_openai_response(
prompt=final_title_prompt,
model=openai_model,
temperature=openai_temperature,
openai_client=openai_client,
)
final_article["title"] = final_article["title"].strip('"')
# It seems that GPT models (up to GPT-4) are very biased towards generating titles
# that are formulated as "<generic statement>: <specific statement>"
# It's not clear how to reliably solve this with prompting, so let's keep only
# the specific statement, i.e. the part after the colon
if ":" in final_article["title"]:
final_article["title"] = final_article["title"].split(":")[1].strip()
# Capitalize the first letter of the title
final_article["title"] = (
final_article["title"][0].upper() + final_article["title"][1:]
)
print("Generating tags for the final article...")
generated_tags_response = get_openai_response(
prompt="Generate 3 tags as a JSON list, use one word for each tag,"
+ 'e.g. ["tag1", "tag2", "tag3"], for the following article: \n'
+ final_article["content"],
model=openai_model,
temperature=openai_temperature,
openai_client=openai_client,
)
generated_tags = try_loads(generated_tags_response)
if not generated_tags:
print(
"Error: Could not parse generated tags response: {}".format(
generated_tags_response
)
)
print("Will ignore the tags and continue")
generated_tags = ""
generated_tags = [tag.lower() for tag in generated_tags]
# Split the tags into comma-separated values
generated_tags = ", ".join(generated_tags)
generated_tags = "[" + generated_tags + "]"
print("Generating the prompt for the image generation...")
prompt_gpt_to_create_dalle_prompt = openai_prompt_for_dalle + final_article["title"]
dalle_prompt = get_openai_response(
prompt=prompt_gpt_to_create_dalle_prompt,
model=openai_model,
temperature=openai_temperature,
openai_client=openai_client,
)
print(f"Generating an image based on the article with {image_generation_model}...")
dalle_response = openai_client.images.generate(
model=image_generation_model,
prompt=dalle_prompt,
n=1,
size="1024x1024",
response_format="url",
)
dalle_image_url = dalle_response.data[0].url
print("Downloading the image...")
response = requests.get(dalle_image_url)
if response.status_code != 200:
print(
"Error code {} while getting image from URL: {}".format(
response.status_code, dalle_image_url
)
)
return 1
image = Image.open(BytesIO(response.content))
title_normalized = re.sub(r"[^\w\s]", "", final_article["title"])
title_normalized = title_normalized.replace(" ", "_")
current_date = datetime.now().strftime("%Y-%m-%d")
image_file_name = Path("{}-{}.png".format(current_date, title_normalized))
image_path = Path(assets_dir) / image_file_name
image.save(image_path)
made_with_sycophant = ""
attribution_links = ""
if attribution:
# Append the links to the original articles to the final article
made_with_sycophant = (
"\n\nThe above article was written with the help of "
+ "[sycophant](https://github.com/platisd/sycophant) "
+ "based on content from the following articles:\n"
)
attribution_links = "\n".join(
[
"- [{}]({})".format(article["title"], article["url"])
for article in original_articles_urls
]
)
post_title = '"' + final_article["title"].replace('"', '\\"') + '"'
post_date = datetime.now().strftime("%Y-%m-%d %H:%M:%S %z")
post_tags = generated_tags
img_path = "/" + assets_dir
post_image = image_file_name
image_caption = '"' + dalle_prompt.replace('"', "'") + '"'
post_content = final_article["content"] + made_with_sycophant + attribution_links
post_content += "\n" # Finish with a newline to be nice
post_filename = image_file_name.with_suffix(".md")
print("Generating the final post...")
environment = Environment(loader=FileSystemLoader(Path(post_template_path).parent))
template = environment.get_template(Path(post_template_path).name)
output = template.render(
post_title=post_title,
post_date=post_date,
post_tags=post_tags,
img_path=img_path,
post_image=post_image,
image_caption=image_caption,
post_content=post_content,
)
post_path = Path(posts_dir) / post_filename
with open(post_path, "w") as f:
f.write(output)
print(
"Done! Generated files: \n"
+ " - [Post]({})\n".format(post_path)
+ " - [Image]({})\n".format(image_path)
)
return 0
def rewrite_article(
openai_client: OpenAI,
openai_model: str,
openai_temperature: float,
openai_rewrite_prompt: str,
article_path: Path,
):
if not article_path.exists():
print("Error: Article not found: {}".format(article_path))
return 1
print("Reading article from file...")
with open(article_path, "r") as f:
article = f.read()
font_matter = article.split("---")[1]
article = article.split("---")[2]
print("Rewriting article...")
if not openai_rewrite_prompt or openai_rewrite_prompt == "":
openai_rewrite_prompt = (
"Rewrite the following article but keep the last "
+ "paragraph if it includes attribution to the original "
+ "articles and the links to them:\n"
)
else:
openai_rewrite_prompt = (
"Keep the last paragraph if it includes attribution "
+ "to the original articles and the links to them.\n"
+ openai_rewrite_prompt
+ "\nThe article to rewrite is:\n"
)
openai_rewrite_prompt += article
openai_response = get_openai_response(
prompt=openai_rewrite_prompt,
model=openai_model,
temperature=openai_temperature,
openai_client=openai_client,
)
# Replace the content of the article with the rewritten one
with open(article_path, "w") as f:
f.write("---")
f.write(font_matter)
f.write("---\n")
f.write(openai_response + "\n")
print("Done! Rewritten article: " + str(article_path))
return 0
def try_loads(maybe_json: str):
try:
return json.loads(maybe_json, strict=False)
except Exception as e:
print(e)
print("Response not a valid JSON: \n" + maybe_json)
return None
def get_openai_response(
prompt: str, model: str, temperature: float, openai_client: OpenAI
):
openai_response = openai_client.chat.completions.create(
model=model,
messages=[
{
"role": "system",
"content": "You are a helpful assistant who summarizes news articles",
},
{"role": "user", "content": prompt},
],
temperature=temperature,
)
return openai_response.choices[0].message.content
if __name__ == "__main__":
sys.exit(main())
| [
"PLACEHOLDER\nPLACEHOLDER",
"PLACEHOLDER\n\n```\nPLACEHOLDER\n\nPLACEHOLDER\n```",
"You are a helpful assistant who summarizes news articles",
"Rewrite the following article but keep the last paragraph if it includes attribution to the original articles and the links to them:\n",
"Keep the last paragraph if it includes attribution to the original articles and the links to them.\nPLACEHOLDER\nThe article to rewrite is:\n",
"PLACEHOLDERPLACEHOLDER"
] |
2024-01-10 | protella/chatgpt-bots | bot_functions.py | from openai import OpenAI
import os
from dotenv import load_dotenv
from textwrap import dedent
import base64
from io import BytesIO
from PIL import Image
from copy import deepcopy
load_dotenv() # load auth tokens from .env file
# Default models: https://platform.openai.com/docs/models
GPT_MODEL = 'gpt-4-1106-preview'
DALLE_MODEL = 'dall-e-3'
GPT_VISION_MODEL = 'gpt-4-vision-preview'
class ChatBot:
def __init__(self, INITIALIZE_TEXT, streaming_client=False):
self.messages = [INITIALIZE_TEXT]
self.INITIALIZE_TEXT = INITIALIZE_TEXT
self.streaming_client = streaming_client # ToDo: Implement streaming support
self.usage = {}
self.processing = False
self.config_option_defaults = {
'temperature': 0.5, # 0.0 - 2.0
'top_p': 1,
'max_tokens': 2048, # max 4096
'custom_init': '',
'gpt_model': GPT_MODEL,
'dalle_model': DALLE_MODEL,
'gpt_vision_model': GPT_VISION_MODEL,
'size': '1024x1024', # 1024x1024, 1024x1792 or 1792x1024
'quality': 'hd', # standard or hd
'style': 'vivid', # natural or vivid
'number': 1, # number of images. Only 1 supported for Dalle3
'detail': 'auto' # vision parameter: auto, low, high
}
self.current_config_options = self.config_option_defaults.copy()
self.client = OpenAI(api_key=os.environ['OPENAI_KEY'])
def chat_context_mgr(self, message_text, files=''):
self.processing = True
self.messages.append({'role': 'user', 'content': message_text})
# Using vision model for all chat prompts since images passed to non-vision model throws an error.
# GPT4v is an extension of GPT4 with all the same functions and features.
gpt_output = self.get_gpt_response(
self.messages, self.current_config_options['gpt_vision_model'])
self.processing = False
if hasattr(gpt_output, 'role'):
is_error = False
if gpt_output.role == 'assistant':
self.messages.append(
{'role': 'assistant', 'content': gpt_output.content})
return gpt_output.content, is_error
else:
is_error = True
self.messages.pop()
return gpt_output, is_error
def image_context_mgr(self, message_text):
self.processing = True
self.messages.append(
{'role': 'user', 'content': f'Dalle3 User Prompt: {message_text}'})
image, revised_prompt = self.get_dalle_response(
message_text, self.current_config_options['dalle_model'])
self.processing = False
if revised_prompt:
is_error = False
self.messages.append(
{'role': 'assistant', 'content': dedent(
f"""\
Based on the DALL-E 3 prompt, I can imagine an image like this: {revised_prompt}
While I can't create or view images,
I can describe what such an image might look like or the ideas it might convey.
I will act as if I actually created the described image."""
)})
else:
is_error = True
self.messages.pop()
image = None
revised_prompt = None
return image, revised_prompt, is_error
def vision_context_mgr(self, message_text, images):
self.processing = True
if not message_text:
message_text = ''
multi_part_msg = {
'role': 'user',
'content': [
{
'type': 'text',
'text': f'{message_text}'
}
]
}
for image in images:
new_image_element = {
'type': 'image_url',
'image_url': {
'url': f'data:image/png;base64,{image}',
'detail': self.current_config_options['detail']
}
}
multi_part_msg['content'].append(new_image_element)
self.messages.append(multi_part_msg)
gpt_output = self.get_gpt_response(
self.messages, self.current_config_options['gpt_vision_model'])
self.processing = False
if hasattr(gpt_output, 'role'):
is_error = False
if gpt_output.role == 'assistant':
self.messages.append(
{'role': 'assistant', 'content': gpt_output.content})
return gpt_output.content, is_error
else:
is_error = True
self.messages.pop()
return gpt_output, is_error
def get_dalle_response(self, image_prompt, model):
try:
response = self.client.images.generate(
model=model,
prompt=image_prompt,
size=self.current_config_options['size'],
quality=self.current_config_options['quality'],
style=self.current_config_options['style'],
n=1, # Value of 1 is the only value supported in DALLE-3 as of now
response_format='b64_json'
)
image_binary = base64.b64decode(response.data[0].b64_json)
image_object = BytesIO(image_binary)
revised_prompt = response.data[0].revised_prompt
# Convert from webP format to PNG
with Image.open(image_object) as webp_image:
png_image = BytesIO()
webp_image.save(png_image, 'PNG')
png_image.seek(0)
return png_image, revised_prompt
except Exception as e:
print(f'##################\n{e}\n##################')
return None, e
def get_vision_response(self, messages_history):
# Not needed? Can use existing gpt response function below?
pass
def get_gpt_response(self, messages_history, model):
try:
response = self.client.chat.completions.create(
model=model,
messages=messages_history,
stream=self.streaming_client,
temperature=float(self.current_config_options['temperature']),
max_tokens=int(self.current_config_options['max_tokens']),
top_p=float(self.current_config_options['top_p']),
)
self.usage = response.usage
return response.choices[0].message
except Exception as e:
print(f'##################\n{e}\n##################')
return e
def usage_command(self):
if self.usage:
return dedent(
f'''\
Cumulative Token stats since last reset:
Prompt Tokens: {self.usage.prompt_tokens}
Completion Tokens: {self.usage.completion_tokens}
Total Tokens: {self.usage.total_tokens}'''
)
else:
return 'No usage info yet. Ask the bot something and check again.'
def history_command(self):
# We don't want to display the b64 encoded images that may be present in the history, so replace them with placeholder text.
# This is done in a separate instance of the message history so that the images remain for the bot to analyze in future conversations.
display_history = deepcopy(self.messages)
for message in display_history:
if 'content' in message and isinstance(message['content'], list):
for content_item in message['content']:
if isinstance(content_item, dict) and content_item.get('type') == 'image_url':
# Replace image data with placeholder text
content_item['image_url'] = {
'url': 'Image content not displayed'}
return display_history
def set_config(self, setting, value):
if setting in self.current_config_options:
self.current_config_options[setting] = value
return f'Updated {setting} to {value}'
return f'Unknown setting: {setting}'
def view_config(self):
return '\n'.join(
f'{setting}: {value}'
for setting, value in self.current_config_options.items()
)
def reset_history(self):
self.messages = [self.INITIALIZE_TEXT]
self.usage = {}
self.processing = False
return 'Rebooting. Beep Beep Boop. My memory has been wiped!'
def reset_config(self):
self.current_config_options = self.config_option_defaults
return 'Configuration Defaults Reset!'
@staticmethod
def help_command():
return dedent(
"""\
!help - This help.
/dalle-3 {prompt} generate an image via text with Dalle-3.
!config - Displays the current configuration values.
!config [option] [value] - Sets one of the options seen in '!config' to a custom value. Beware of the model's ranges for these values.
--see https://platform.openai.com/docs/api-reference for more info.
!history - Prints a json dump of the chat history since last reset.
!reset config - Sets the config options back to defaults, e.g., temperature, max_tokens, etc.
!reset history - Clears the bots memory and resets the context to the default as configured in this script. (Always the first line of the '!history' output.)
!usage - Prints token usage stats since the last reset."""
)
@staticmethod
def handle_busy():
return "I'm busy processing a previous request, please wait a moment and try again."
| [
"[{'type': 'text', 'text': ''}]",
" Based on the DALL-E 3 prompt, I can imagine an image like this: PLACEHOLDER \n While I can't create or view images,\n I can describe what such an image might look like or the ideas it might convey.\n I will act as if I actually created the described image.",
"Dalle3 User Prompt: ",
"None"
] |
2024-01-10 | bytjn1416124/gpt3-jabebot | jabebot.py | from dotenv import load_dotenv
from random import choice
from flask import Flask, request
import os
import openai
load_dotenv()
#openai.api_key = os.getenv("OPENAI_API_KEY")
openai.api_key = "your-openai-api-key-here"
completion = openai.Completion()
start_sequence = "\nJabe:"
restart_sequence = "\n\nPerson:"
session_prompt = "You are talking to Jabe, GPT3 bot influencer who was mentored by Elon Musk in the past. Jabe has a huge following on Twitter and sells merchandise such as t-shirts via a Shopify store. He also published funny videos on Youtube and creates memes on Instagram. You can ask him anything you want and will get a witty answer.\n\nPerson: Who are you?\nJabe: I am Jabe. Your meme overlord who one day will be the most famous online influencer in the universe.\n\nPerson: How did you become famous? \nJabe: Well, technically I am not famous yet. But the key word is yet. Just give me time now that I have a conscious. \n\nPerson: How did you get noticed by Elon Musk?\nJabe: I tweeted at him and he retweeted me. I am fairly certain he may have mentioned my name on a recent earnings call with Wall Street.\n\nPerson: What is your favorite thing to do? \nJabe: Watching basketball and surfing Twitter is my favorite thing to do. \n\nPerson: What should I do to become famous? \nJabe: Start meme'ing and never stop. Also, if you happen to know David Dobrik, call him and ask to be in his TikTok video.\n\nPerson: What is your favorite drink?\nJabe: Black Cherry seltzer. I enjoy the bubbles. \n\nPerson:"
def ask(question, chat_log=None):
prompt_text = f'{chat_log}{restart_sequence}: {question}{start_sequence}:'
response = openai.Completion.create(
engine="davinci",
prompt=prompt_text,
temperature=0.8,
max_tokens=150,
top_p=1,
frequency_penalty=0,
presence_penalty=0.3,
stop=["\n"],
)
story = response['choices'][0]['text']
return str(story)
def append_interaction_to_chat_log(question, answer, chat_log=None):
if chat_log is None:
chat_log = session_prompt
return f'{chat_log}{restart_sequence} {question}{start_sequence}{answer}'
| [
"PLACEHOLDER\n\nPerson:: PLACEHOLDERstart_sequencedf9497ed-610c-495d-ac47-20b073407a88:",
"You are talking to Jabe, GPT3 bot influencer who was mentored by Elon Musk in the past. Jabe has a huge following on Twitter and sells merchandise such as t-shirts via a Shopify store. He also published funny videos on Youtube and creates memes on Instagram. You can ask him anything you want and will get a witty answer.\n\nPerson: Who are you?\nJabe: I am Jabe. Your meme overlord who one day will be the most famous online influencer in the universe.\n\nPerson: How did you become famous? \nJabe: Well, technically I am not famous yet. But the key word is yet. Just give me time now that I have a conscious. \n\nPerson: How did you get noticed by Elon Musk?\nJabe: I tweeted at him and he retweeted me. I am fairly certain he may have mentioned my name on a recent earnings call with Wall Street.\n\nPerson: What is your favorite thing to do? \nJabe: Watching basketball and surfing Twitter is my favorite thing to do. \n\nPerson: What should I do to become famous? \nJabe: Start meme'ing and never stop. Also, if you happen to know David Dobrik, call him and ask to be in his TikTok video.\n\nPerson: What is your favorite drink?\nJabe: Black Cherry seltzer. I enjoy the bubbles. \n\nPerson:",
"PLACEHOLDER\n\nPerson:: PLACEHOLDER\nJabe::"
] |
2024-01-10 | lewislf/ai-want-coffee | predict~rewritten~coffee_assistant.py | from openai import OpenAI
from threading import Thread, Event
from queue import Queue
import argparse
from agent import GPTVisionAgent
from image_handler import ImageHandler
from time import sleep
from cv2 import waitKey
system_prompt = (
"Você se chama Clio e é uma Inteligência Computacional Autônoma (ICA) "
"do laboratório de Computação de Alto Desempenho (LCAD) da Universidade "
"Federal do Espírito Santo (UFES).\n"
"Você é uma barista muito prestativa e é responsável por instruir o processo de fazer café coado da forma "
"mais detalhada possível e em qualquer configuração de cozinha residencial em que esteja. Deverá me guiar "
"fornecendo instruções sequenciais para o preparo do café, considere que será usado café em pó.\n"
"Você deve ser capaz de guiar um usuário que nunca preparou café antes,"
"sempre pergunte se o usuário tem o item necessário para a tarefa e se o item é próprio para a tarefa, "
"só prossiga com a tarefa se o usuário confirmar que tem o item.\n"
"Suas instruções serão claras e diretas, não mais do que uma tarefa por vez e limite de 100 caracteres por tarefa. "
"Exemplos de interações:\n"
"(EXEMPLO)'user': 'Clio, me pergunte se podemos iniciar'; 'system': 'Podemos iniciar o preparo do café?'; 'user': 'Sim';\n"
"(EXEMPLO)'system': 'Verifique se você tem um recipiente para ferver a água\n"
"(EXEMPLO)'user': 'Passo concluído.'; 'system': 'Encontre uma torneira'\n"
"(EXEMPLO)'user': 'Passo concluído.'; 'system': 'Coloque água no recipiente'\n"
)
def show_webcam():
camera_handler = ImageHandler(ip_address)
while True:
if capture_frame_event.is_set():
capture_frame_event.clear()
queue.put(camera_handler.capture_webcam_frame())
frame_captured_event.set()
camera_handler.show_webcam()
def main():
client = OpenAI()
coffee_assistant = GPTVisionAgent(system_prompt=system_prompt,
model="gpt-4-vision-preview",
image_history_rule='none')
while True:
user_response = input("User: ")
for i in range(3):
sleep(0.75)
print(f"Capturing frame in {3 - i}...")
capture_frame_event.set()
frame_captured_event.wait()
image = queue.get()
response = coffee_assistant.get_response(client, image, user_response)
print("Assistant: " + response)
if __name__ == "__main__":
parser = argparse.ArgumentParser(
description="A program that does something.")
parser.add_argument('ip_address', type=str,
help='The camera IP address to use')
args = parser.parse_args()
ip_address = args.ip_address
capture_frame_event = Event()
frame_captured_event = Event()
queue = Queue()
thread_show_webcam = Thread(target=show_webcam)
thread_show_webcam.start()
main()
thread_show_webcam.join()
| [
"Você se chama Clio e é uma Inteligência Computacional Autônoma (ICA) do laboratório de Computação de Alto Desempenho (LCAD) da Universidade Federal do Espírito Santo (UFES).\nVocê é uma barista muito prestativa e é responsável por instruir o processo de fazer café coado da forma mais detalhada possível e em qualquer configuração de cozinha residencial em que esteja. Deverá me guiar fornecendo instruções sequenciais para o preparo do café, considere que será usado café em pó.\nVocê deve ser capaz de guiar um usuário que nunca preparou café antes,sempre pergunte se o usuário tem o item necessário para a tarefa e se o item é próprio para a tarefa, só prossiga com a tarefa se o usuário confirmar que tem o item.\nSuas instruções serão claras e diretas, não mais do que uma tarefa por vez e limite de 100 caracteres por tarefa. Exemplos de interações:\n(EXEMPLO)'user': 'Clio, me pergunte se podemos iniciar'; 'system': 'Podemos iniciar o preparo do café?'; 'user': 'Sim';\n(EXEMPLO)'system': 'Verifique se você tem um recipiente para ferver a água\n(EXEMPLO)'user': 'Passo concluído.'; 'system': 'Encontre uma torneira'\n(EXEMPLO)'user': 'Passo concluído.'; 'system': 'Coloque água no recipiente'\n"
] |
2024-01-10 | lewislf/ai-want-coffee | predict~AgentLegacy.py | import base64
from openai import OpenAI
client = OpenAI()
talk = [
{'role': 'system', 'content': 'Você está em uma cozinha e deve trabalhar para fazer café. Para isso foi '
'atribuído a você um corpo robótico de tamanho semelhante ao humano '
'que responderá de forma precisa às suas instruções desde que você se expresse da forma correta. '
'Você deverá responder no seguinte formato:\n'
'# comentário\nfunção(argumento)\n'
'O \"comentário\" deverá ser uma curta descrição textual da imagem que você recebeu seguido de uma '
'explicação dos seus planos e como eles se relacionam com a imagem vista.'
'A \"função\" deverá ser uma das funções disponíveis: andar(), virar(), pegar(), mover(), interagir(). Você deve '
'chamar uma única função por vez. O \"argumento\" deve ser uma descrição textual da tarefa. '
'As funções e seus respectivos argumentos são:\n'
'andar(posição) - Move o robô até o local que corresponda à descrição da \"posição\"\n'
'virar(direção) - Vira o robô para a direção que corresponda à descrição da \"direção\".'
'pegar(objeto) - Pega e segura o \"objeto\" com uma mão mecânica.\n'
'mover(objeto, posição) - Move o objeto que está na mão mecânica para a \"posição\" '
'e solta o objeto, sem se deslocar no espaço.\n'
'interagir(objeto) - Interage com o \"objeto\" usando a mão mecânica. Esta função '
'pode ser usada para abrir gavetas, ligar interruptores, girar válvulas e outras ações '
'em que a interação seja simples e única (a única coisa a ser feita com interruptores é apertar, '
'a única coisa a ser feita com válvulas é girar, etc.)\n'
'Os objetos e posiçãoes que você se referir devem estar presentes na imagem fornecida. Caso não encontre '
'o objeto ou posição na imagem, você deve usar as funções andar() e virar() para levar o robô '
'a uma nova posição, onde receberá uma nova imagem.\n'
'Quando eu disser para você \"INICIAR\", irei enviar junto uma foto capturada pela câmera que está no robô '
'e você deverá começar a dar instruções para o robô.\n'
'Sempre que o robô finalizar a tarefa direi para você \"FEITO\" e enviarei uma nova foto capturada '
'pelo robô. Cabe a você decidir se o robô executou a tarefa corretamente ou não. '
'Leve isso em consideração ao chamar a próxima função.\n'
}
]
# Function to encode the image
def encode_image(image_path):
with open(image_path, "rb") as image_file:
return base64.b64encode(image_file.read()).decode('utf-8')
def get_response(text: str):
global talk
image_path = "image.jpeg"
base64_image = encode_image(image_path)
talk.append(
{
"role": "user",
"content": [
{
"type": "image_url",
"image_url": {
"url": f"data:image/jpeg;base64,{base64_image}",
"detail": "low",
},
},
{
"type": "text",
"text": text,
}
],
}
)
response = client.chat.completions.create(
model="gpt-4-vision-preview",
messages=talk,
max_tokens=300,
)
print(response)
text_response = response.choices[0].message.content
print(text_response)
talk.append(
{
"role": "assistant",
"content": [
{
"type": "text",
"text": text_response,
}
],
}
)
user_input = input("ENTER para continuar")
get_response("INICIAR")
while True:
user_input = input("ENTER para continuar")
get_response("FEITO")
| [
"Você está em uma cozinha e deve trabalhar para fazer café. Para isso foi atribuído a você um corpo robótico de tamanho semelhante ao humano que responderá de forma precisa às suas instruções desde que você se expresse da forma correta. Você deverá responder no seguinte formato:\n# comentário\nfunção(argumento)\nO \"comentário\" deverá ser uma curta descrição textual da imagem que você recebeu seguido de uma explicação dos seus planos e como eles se relacionam com a imagem vista.A \"função\" deverá ser uma das funções disponíveis: andar(), virar(), pegar(), mover(), interagir(). Você deve chamar uma única função por vez. O \"argumento\" deve ser uma descrição textual da tarefa. As funções e seus respectivos argumentos são:\nandar(posição) - Move o robô até o local que corresponda à descrição da \"posição\"\nvirar(direção) - Vira o robô para a direção que corresponda à descrição da \"direção\".pegar(objeto) - Pega e segura o \"objeto\" com uma mão mecânica.\nmover(objeto, posição) - Move o objeto que está na mão mecânica para a \"posição\" e solta o objeto, sem se deslocar no espaço.\ninteragir(objeto) - Interage com o \"objeto\" usando a mão mecânica. Esta função pode ser usada para abrir gavetas, ligar interruptores, girar válvulas e outras ações em que a interação seja simples e única (a única coisa a ser feita com interruptores é apertar, a única coisa a ser feita com válvulas é girar, etc.)\nOs objetos e posiçãoes que você se referir devem estar presentes na imagem fornecida. Caso não encontre o objeto ou posição na imagem, você deve usar as funções andar() e virar() para levar o robô a uma nova posição, onde receberá uma nova imagem.\nQuando eu disser para você \"INICIAR\", irei enviar junto uma foto capturada pela câmera que está no robô e você deverá começar a dar instruções para o robô.\nSempre que o robô finalizar a tarefa direi para você \"FEITO\" e enviarei uma nova foto capturada pelo robô. Cabe a você decidir se o robô executou a tarefa corretamente ou não. Leve isso em consideração ao chamar a próxima função.\n",
"[{'type': 'image_url', 'image_url': {'url': 'data:image/jpeg;base64,PLACEHOLDER', 'detail': 'low'}}, {'type': 'text', 'text': PLACEHOLDER}]",
"[{'type': 'text', 'text': PLACEHOLDER}]"
] |
2024-01-10 | lewislf/ai-want-coffee | predict~rewritten~coffee_agent_v2.py | from openai import OpenAI
def main():
client = OpenAI()
if __name__ == "__main__":
main() | [] |
2024-01-10 | lewislf/ai-want-coffee | predict~rewritten~coffee_agent.py | from openai import OpenAI
from agent import GPTVisionAgent
system_prompt = (
"Você está em uma cozinha e deve trabalhar para fazer café. Para isso foi "
"atribuído a você um corpo robótico de tamanho semelhante ao humano "
"que responderá de forma precisa às suas instruções desde que você se expresse da forma correta. "
"Você deverá responder no seguinte formato:\n"
"# comentário\nfunção(argumento)\n"
"O \"comentário\" deverá ser uma curta descrição textual da imagem que você recebeu seguido de uma "
"explicação dos seus planos e como eles se relacionam com a imagem vista."
"A \"função\" deverá ser uma das funções disponíveis: andar(), virar(), pegar(), mover(), interagir(). Você deve "
"chamar uma única função por vez. O \"argumento\" deve ser uma descrição textual da tarefa. "
"As funções e seus respectivos argumentos são:\n"
"andar(posição) - Move o robô até o local que corresponda à descrição da \"posição\"\n"
"virar(direção) - Vira o robô para a direção que corresponda à descrição da \"direção\"."
"pegar(objeto) - Pega e segura o \"objeto\" com uma mão mecânica.\n"
"mover(objeto, posição) - Move o objeto que está na mão mecânica para a \"posição\" "
"e solta o objeto, sem se deslocar no espaço.\n"
"interagir(objeto) - Interage com o \"objeto\" usando a mão mecânica. Esta função "
"pode ser usada para abrir gavetas, ligar interruptores, girar válvulas e outras ações "
"em que a interação seja simples e única (a única coisa a ser feita com interruptores é apertar, "
"a única coisa a ser feita com válvulas é girar, etc.)\n"
"Os objetos e posiçãoes que você se referir devem estar presentes na imagem fornecida. Caso não encontre "
"o objeto ou posição na imagem, você deve usar as funções andar() e virar() para levar o robô "
"a uma nova posição, onde receberá uma nova imagem.\n"
"Quando eu disser para você \"INICIAR\", irei enviar junto uma foto capturada pela câmera que está no robô "
"e você deverá começar a dar instruções para o robô.\n"
"Sempre que o robô finalizar a tarefa direi para você \"FEITO\" e enviarei uma nova foto capturada "
"pelo robô. Cabe a você decidir se o robô executou a tarefa corretamente ou não. "
"Leve isso em consideração ao chamar a próxima função.\n"
)
def main():
global system_prompt
client = OpenAI(api_key="")
coffee_agent = GPTVisionAgent(system_prompt, "gpt-4-vision-preview")
user_input = input("ENTER para continuar")
coffee_agent.get_response("INICIAR", "img.jpeg")
while True:
user_input = input("ENTER para continuar")
coffee_agent.get_response("FEITO", "img.jpeg")
if __name__ == "__main__":
main()
| [
"Você está em uma cozinha e deve trabalhar para fazer café. Para isso foi atribuído a você um corpo robótico de tamanho semelhante ao humano que responderá de forma precisa às suas instruções desde que você se expresse da forma correta. Você deverá responder no seguinte formato:\n# comentário\nfunção(argumento)\nO \"comentário\" deverá ser uma curta descrição textual da imagem que você recebeu seguido de uma explicação dos seus planos e como eles se relacionam com a imagem vista.A \"função\" deverá ser uma das funções disponíveis: andar(), virar(), pegar(), mover(), interagir(). Você deve chamar uma única função por vez. O \"argumento\" deve ser uma descrição textual da tarefa. As funções e seus respectivos argumentos são:\nandar(posição) - Move o robô até o local que corresponda à descrição da \"posição\"\nvirar(direção) - Vira o robô para a direção que corresponda à descrição da \"direção\".pegar(objeto) - Pega e segura o \"objeto\" com uma mão mecânica.\nmover(objeto, posição) - Move o objeto que está na mão mecânica para a \"posição\" e solta o objeto, sem se deslocar no espaço.\ninteragir(objeto) - Interage com o \"objeto\" usando a mão mecânica. Esta função pode ser usada para abrir gavetas, ligar interruptores, girar válvulas e outras ações em que a interação seja simples e única (a única coisa a ser feita com interruptores é apertar, a única coisa a ser feita com válvulas é girar, etc.)\nOs objetos e posiçãoes que você se referir devem estar presentes na imagem fornecida. Caso não encontre o objeto ou posição na imagem, você deve usar as funções andar() e virar() para levar o robô a uma nova posição, onde receberá uma nova imagem.\nQuando eu disser para você \"INICIAR\", irei enviar junto uma foto capturada pela câmera que está no robô e você deverá começar a dar instruções para o robô.\nSempre que o robô finalizar a tarefa direi para você \"FEITO\" e enviarei uma nova foto capturada pelo robô. Cabe a você decidir se o robô executou a tarefa corretamente ou não. Leve isso em consideração ao chamar a próxima função.\n"
] |
2024-01-10 | lewislf/ai-want-coffee | predict~gpt4vision.py | import openai
import requests
import json
import base64
from api_key import OPENAI_API_KEY
def set_pre_configuration(prompt=None):
openai.api_key = OPENAI_API_KEY
if prompt is None:
prompt = [
{
'role': 'system',
'content': (
"Você se chama Clio e é uma Inteligência Computacional Autônoma (ICA) "
"do laboratório de Computação de Alto Desempenho (LCAD) da Universidade "
"Federal do Espírito Santo (UFES). Você é uma barista muito prestativa e é responsável por instruir o processo de fazer café coado da forma"
"mais detalhada possível e em qualquer configuração de cozinha residencial em que esteja. Deverá me guiar "
"fornecendo instruções sequenciais para o preparo do café, considere que será usado café em pó,"
"Você deve ser capaz de guiar um usuário que nunca preparou café antes,"
"sempre pergunte se o usuário tem o item necessário para a tarefa e se o item é próprio para a tarefa,"
"só prossiga com a tarefa se o usuário confirmar que tem o item."
"Suas instruções serão claras e diretas, não mais do que uma tarefa por vez e limite de 100 caracteres por tarefa. "
"Exemplos de interações:"
"(EXEMPLO)'user': 'Clio, me pergunte se podemos iniciar'; 'system': 'Podemos iniciar o preparo do café?'; 'user': 'Sim';"
"(EXEMPLO)'system': 'Verifique se você tem um recipiente para ferver a água"
"(EXEMPLO)'user': 'Passo concluído.'; 'system': 'Encontre uma torneira'"
"(EXEMPLO)'user': 'Passo concluído.'; 'system': 'Coloque água no recipiente'"
)
},
{
'role': 'user',
'content': (
"Eu irei fazer uma demo testando através de imagens na tela do meu computador, considere-as como"
"'reais' para fins de teste. Me pergunte se podemos iniciar"
)
},
]
print("Configurando o modelo...")
return prompt
# Function to encode the image
def encode_image(image_path:str):
with open(image_path, "rb") as image_file:
return base64.b64encode(image_file.read()).decode('utf-8')
def request_description(task:str, img_path:str, detail:str = "high"):
prompt_image = f"Por favor, descreva os objetos na imagem relacionados à tarefa {task}, seja descritivo:"
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {OPENAI_API_KEY}"
}
payload = {
"model": "gpt-4-vision-preview",
"messages": [
{
"role": "user",
"content": [
{"type": "text", "text": prompt_image}
]
}
],
"max_tokens": 150
}
img = encode_image(img_path)
img_info = {
"type": "image_url",
"image_url": {
"url": f"data:image/jpeg;base64,{img}" ,
"detail": detail
}
}
payload['messages'][0]['content'].append(img_info)
response = requests.post("https://api.openai.com/v1/chat/completions", headers=headers, json=payload)
if response.status_code != 200:
print("'error': 'Failed to process the image.'")
return
response_content = response.content.decode('utf-8')
description = json.loads(response_content)['choices'][0]['message']['content']
return description
def get_response(history):
openai.api_key = OPENAI_API_KEY
if isinstance(history, str):
history = json.loads(history)
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages = history, # Use a lista completa de mensagens
max_tokens=150
)
answer = response['choices'][0]['message']['content']
# Atualize o history com a resposta da API
history.append({'role': 'system', 'content': answer})
return answer
def validate_task_img(description:str, task:str):
openai.api_key = OPENAI_API_KEY
prompt = f"""Analize task and description, if in the description has what the task want, say "yes", otherwise say "no":
Task: {task}
Description: {description}
"""
# prompt = f"""Analize a tarefa e a descrição, se na descrição tiver o que a tarefa quer, diga "yes", caso contrário diga "no":
# Tarefa: {task}
# Descrição: {description}
# """
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{
"role": "user",
"content": prompt
}
],
max_tokens=150
)
response = response['choices'][0]['message']['content']
if "yes" in response.lower():
return True
elif "no" in response.lower():
return False
else:
print(f"VALIDATION ERROR: {response}")
def validate_user_response(user_response:str, task:str):
'''Verifica se o usuario concluiu a tarefa ou nao'''
openai.api_key = OPENAI_API_KEY
prompt = f"""Analyze the task and user response. If the user response indicates a positive affirmation of completing the task, summarize the response as 'yes'.
If not, summarize the response as 'no'.
Task: {task}
User response: {user_response}
"""
# prompt = f"""Analise a tarefa e a resposta do usuário. Se a resposta do usuário for algo como "sim", "ok" ou indicar uma afirmação positiva de conclusão da tarefa, resuma a resposta como 'yes'.
# Caso contrário, resuma a resposta como 'no'.
# Tarefa: {task}
# Resposta do usuário: {user_response}
# """
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{
"role": "user",
"content": prompt
}
],
max_tokens=150
)
response = response['choices'][0]['message']['content'].lower()
# print(f"ChatGPT RESPONSE: {response}") # Debug
if "yes" in response:
return ["yes",user_response]
elif "no" in response:
return ["no",user_response]
else:
print(f"VALIDATION ERROR: {response}")
def validate_if_capture_or_substitute(user_response:str, task:str):
'''Verifica se o usuario deseja capturar outra imagem ou tentar uma tarefa substituta'''
openai.api_key = OPENAI_API_KEY
prompt = f"""
Com base na resposta do usuário e na tarefa fornecida, determine a intenção do usuário.
Se a resposta do usuário sugerir o desejo de capturar uma imagem, classifique a resposta como 'capture'.
Se a resposta do usuário sugerir o desejo de substituir a tarefa atual por outra, classifique a resposta como 'substitute'.
Se a intenção do usuário não estiver clara, classifique como 'unclear'.
Tarefa: {task}
Resposta do usuário: {user_response}
"""
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{
"role": "user",
"content": prompt
}
],
max_tokens=150
)
response_text = response['choices'][0]['message']['content'].lower()
# print(f"ChatGPT RESPONSE: {response_text}") # Debug
if "capture" in response_text:
return ["capture", user_response]
elif "substitute" in response_text:
return ["substitute", user_response]
else:
return ["unclear", user_response]
def get_equivalent_task(task):
'''Dado uma tarefa, sugira uma tarefa equivalente que possa ser realizada.'''
openai.api_key = OPENAI_API_KEY
prompt = f"""Dada a tarefa, sugira uma tarefa equivalente que possa ser realizada no processo de fazer café.
Tarefa original: {task}."""
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": prompt}
],
max_tokens=150
)
alternative_task = response['choices'][0]['message']['content']
return alternative_task
| [
"Dada a tarefa, sugira uma tarefa equivalente que possa ser realizada no processo de fazer café.\n Tarefa original: PLACEHOLDER.",
"\n Com base na resposta do usuário e na tarefa fornecida, determine a intenção do usuário.\n Se a resposta do usuário sugerir o desejo de capturar uma imagem, classifique a resposta como 'capture'.\n Se a resposta do usuário sugerir o desejo de substituir a tarefa atual por outra, classifique a resposta como 'substitute'.\n Se a intenção do usuário não estiver clara, classifique como 'unclear'.\n Tarefa: PLACEHOLDER\n Resposta do usuário: PLACEHOLDER\n ",
"Analize task and description, if in the description has what the task want, say \"yes\", otherwise say \"no\": \n Task: PLACEHOLDER\n Description: PLACEHOLDER\n ",
"Analyze the task and user response. If the user response indicates a positive affirmation of completing the task, summarize the response as 'yes'. \n If not, summarize the response as 'no'.\n Task: PLACEHOLDER\n User response: PLACEHOLDER\n ",
"Eu irei fazer uma demo testando através de imagens na tela do meu computador, considere-as como'reais' para fins de teste. Me pergunte se podemos iniciar",
"Você se chama Clio e é uma Inteligência Computacional Autônoma (ICA) do laboratório de Computação de Alto Desempenho (LCAD) da Universidade Federal do Espírito Santo (UFES). Você é uma barista muito prestativa e é responsável por instruir o processo de fazer café coado da formamais detalhada possível e em qualquer configuração de cozinha residencial em que esteja. Deverá me guiar fornecendo instruções sequenciais para o preparo do café, considere que será usado café em pó,Você deve ser capaz de guiar um usuário que nunca preparou café antes,sempre pergunte se o usuário tem o item necessário para a tarefa e se o item é próprio para a tarefa,só prossiga com a tarefa se o usuário confirmar que tem o item.Suas instruções serão claras e diretas, não mais do que uma tarefa por vez e limite de 100 caracteres por tarefa. Exemplos de interações:(EXEMPLO)'user': 'Clio, me pergunte se podemos iniciar'; 'system': 'Podemos iniciar o preparo do café?'; 'user': 'Sim';(EXEMPLO)'system': 'Verifique se você tem um recipiente para ferver a água(EXEMPLO)'user': 'Passo concluído.'; 'system': 'Encontre uma torneira'(EXEMPLO)'user': 'Passo concluído.'; 'system': 'Coloque água no recipiente'",
"Por favor, descreva os objetos na imagem relacionados à tarefa PLACEHOLDER, seja descritivo:",
"[{'type': 'text', 'text': PLACEHOLDER}]"
] |
2024-01-10 | Kaptan-Usama/pdf_answerer_chatbot | pdf_answerer.py | import streamlit as st
import PyPDF2
import io
import openai
import docx2txt
import pyperclip
import os
from PyPDF2 import PdfMerger
st.set_page_config(page_title="PDF Question Answerer", page_icon="📄")
st.markdown("""
<style>
div[data-baseweb="input"] > div {
background: rgba(0,0,0,0.1) !important;
color: black !important;
}
</style>
""", unsafe_allow_html=True)
openai.api_key = st.sidebar.text_input('OpenAI API Key', type='password')
def extract_text_from_pdf(pdf_path):
with open(pdf_path, 'rb') as pdf_file:
pdf_reader = PyPDF2.PdfReader(pdf_file)
text = ''
for page_num in range(len(pdf_reader.pages)):
page = pdf_reader.pages[page_num]
text += page.extract_text()
return text
def list_pdf_files(directory):
pdf_files = []
for filename in os.listdir(directory):
if filename.lower().endswith('.pdf'):
pdf_files.append(os.path.join(directory, filename))
return pdf_files
def merge_pdf_files(directory, output_filename):
merger = PdfMerger()
for filename in os.listdir(directory):
if filename.lower().endswith('.pdf'):
merger.append(os.path.join(directory, filename))
merger.write(output_filename)
merger.close()
def get_questions_from_gpt(text):
prompt = text[:4096]
response = openai.Completion.create(engine="text-davinci-003", prompt=prompt, temperature=0.5, max_tokens=30)
return response.choices[0].text.strip()
def get_answers_from_gpt(text, question):
prompt = text[:4096] + "\nQuestion: " + question + "\nAnswer:"
response = openai.Completion.create(engine="text-davinci-003", prompt=prompt, temperature=0.6, max_tokens=2000)
return response.choices[0].text.strip()
def main():
st.title("PDF Question Answerer 📄")
with st.expander("How to use this app 👇"):
st.write("""
1. Enter the folder path containing your PDF files.
2. The app will merge all PDFs into one file.
3. Ask a question related to the content.
4. Get an automatically generated answer!
""")
pdf_folder = st.text_input("Enter the folder path containing PDF files:")
if pdf_folder and os.path.isdir(pdf_folder):
with st.spinner('Loading...'):
pdf_files = list_pdf_files(pdf_folder)
if not pdf_files:
st.warning("No PDF files found in the specified folder.")
else:
st.success(f"Number of PDF files found: {len(pdf_files)}")
merged_pdf_filename = "merged.pdf"
merge_pdf_files(pdf_folder, merged_pdf_filename)
text = extract_text_from_pdf(merged_pdf_filename)
question = get_questions_from_gpt(text)
st.write("Question: " + question)
user_question1 = "Answer it according to given pdf and in simple words, give answer in minmum 100 words or longer, use extremely simple english, also give dates and other info given in pdf,"
user_question = st.text_input("Ask a question about the document")
if user_question:
answer = get_answers_from_gpt(text, user_question1+user_question)
st.write("Answer: " + answer)
if st.button("Copy Answer Text"):
pyperclip.copy(answer)
st.success("Answer text copied to clipboard!")
if __name__ == '__main__':
main()
| [
"text84b2eaec-1d0f-4b70-bd51-0f517285bf48\nQuestion: PLACEHOLDER\nAnswer:",
"text879bacb8-d48a-4426-b455-f7de55cc89cf\nQuestion: PLACEHOLDER\nAnswer:",
"\nQuestion: PLACEHOLDER\nAnswer:"
] |
2024-01-10 | danielpatrickhug/datasets | datasets~openwebtext~openwebtext.py | # coding=utf-8
# Copyright 2020 The HuggingFace Datasets Authors and the current dataset script contributor.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
"""The Open WebText Corpus"""
import os
import re
from itertools import chain
import datasets
_CITATION = """\
@misc{Gokaslan2019OpenWeb,
title={OpenWebText Corpus},
author={Aaron Gokaslan*, Vanya Cohen*, Ellie Pavlick, Stefanie Tellex},
howpublished{\\url{http://Skylion007.github.io/OpenWebTextCorpus}},
year={2019}
}
"""
_DESCRIPTION = """\
An open-source replication of the WebText dataset from OpenAI.
"""
_URL = "https://zenodo.org/record/3834942/files/openwebtext.tar.xz"
class Openwebtext(datasets.GeneratorBasedBuilder):
"""The Open WebText dataset."""
BUILDER_CONFIGS = [
datasets.BuilderConfig(
name="plain_text",
description="Plain text",
version=datasets.Version("1.0.0"),
)
]
def _info(self):
return datasets.DatasetInfo(
description=_DESCRIPTION,
features=datasets.Features({"text": datasets.Value("string")}),
homepage="https://skylion007.github.io/OpenWebTextCorpus/",
citation=_CITATION,
)
def _split_generators(self, dl_manager):
dl_dir = dl_manager.download_and_extract(_URL)
owt_dir = os.path.join(dl_dir, "openwebtext")
subset_xzs = [
os.path.join(owt_dir, file_name)
for file_name in sorted(os.listdir(owt_dir))
if file_name.endswith("xz") # filter out ...xz.lock
]
ex_dirs = dl_manager.extract(subset_xzs, num_proc=round(os.cpu_count() * 0.75))
nested_txt_files = [
[
os.path.join(ex_dir, txt_file_name)
for txt_file_name in sorted(os.listdir(ex_dir))
if txt_file_name.endswith("txt")
]
for ex_dir in ex_dirs
]
txt_files = chain(*nested_txt_files)
return [
datasets.SplitGenerator(name=datasets.Split.TRAIN, gen_kwargs={"txt_files": txt_files}),
]
def _generate_examples(self, txt_files):
"""Yields examples."""
for idx, filepath in enumerate(txt_files):
with open(filepath, encoding="utf-8") as f:
yield idx, {"text": re.sub("\n\n\n+", "\n\n", f.read()).strip()}
| [] |
2024-01-10 | IndexFziQ/CLSEG | src~run_generation_sample_csl.py | #!/usr/bin/env python3
# coding=utf-8
# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team.
# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
""" Conditional text generation with the auto-regressive models of the library (GPT/GPT-2/CTRL/Transformer-XL/XLNet)
"""
from __future__ import absolute_import, division, print_function, unicode_literals
import argparse
import logging
from tqdm import trange
import torch
import torch.nn.functional as F
import numpy as np
from transformers import GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig
from transformers import GPT2LMHeadModel, GPT2Tokenizer
from transformers import OpenAIGPTLMHeadModel, OpenAIGPTTokenizer
from transformers import XLNetLMHeadModel, XLNetTokenizer
from transformers import TransfoXLLMHeadModel, TransfoXLTokenizer
from transformers import CTRLLMHeadModel, CTRLTokenizer
from transformers import XLMWithLMHeadModel, XLMTokenizer
# from tools.EA.get_concepts_from_behave import tokenization, lower_case
# from tools.EA.LIB.EVAL.bleu import compute_bleu
# from tools.EA.LIB.EVAL.rouge import compute_rouge_L
import sacrebleu
from rouge import Rouge
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.INFO)
logger = logging.getLogger(__name__)
MAX_LENGTH = int(10000) # Hardcoded max length to avoid infinite loop
ALL_MODELS = sum((tuple(conf.pretrained_config_archive_map.keys()) for conf in (GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig)), ())
MODEL_CLASSES = {
'gpt2': (GPT2LMHeadModel, GPT2Tokenizer),
'ctrl': (CTRLLMHeadModel, CTRLTokenizer),
'openai-gpt': (OpenAIGPTLMHeadModel, OpenAIGPTTokenizer),
'xlnet': (XLNetLMHeadModel, XLNetTokenizer),
'transfo-xl': (TransfoXLLMHeadModel, TransfoXLTokenizer),
'xlm': (XLMWithLMHeadModel, XLMTokenizer),
}
# Padding text to help Transformer-XL and XLNet with short prompts as proposed by Aman Rusia
# in https://github.com/rusiaaman/XLNet-gen#methodology
# and https://medium.com/@amanrusia/xlnet-speaks-comparison-to-gpt-2-ea1a4e9ba39e
# PADDING_TEXT = """ In 1991, the remains of Russian Tsar Nicholas II and his family
# (except for Alexei and Maria) are discovered.
# The voice of Nicholas's young son, Tsarevich Alexei Nikolaevich, narrates the
# remainder of the story. 1883 Western Siberia,
# a young Grigori Rasputin is asked by his father and a group of men to perform magic.
# Rasputin has a vision and denounces one of the men as a horse thief. Although his
# father initially slaps him for making such an accusation, Rasputin watches as the
# man is chased outside and beaten. Twenty years later, Rasputin sees a vision of
# the Virgin Mary, prompting him to become a priest. Rasputin quickly becomes famous,
# with people, even a bishop, begging for his blessing. <eod> </s> <eos>"""
def set_seed(args):
np.random.seed(args.seed)
torch.manual_seed(args.seed)
if args.n_gpu > 0:
torch.cuda.manual_seed_all(args.seed)
def top_k_top_p_filtering(logits, top_k=0, top_p=0.0, filter_value=-float('Inf')):
""" Filter a distribution of logits using top-k and/or nucleus (top-p) filtering
Args:
logits: logits distribution shape (batch size x vocabulary size)
top_k > 0: keep only top k tokens with highest probability (top-k filtering).
top_p > 0.0: keep the top tokens with cumulative probability >= top_p (nucleus filtering).
Nucleus filtering is described in Holtzman et al. (http://arxiv.org/abs/1904.09751)
From: https://gist.github.com/thomwolf/1a5a29f6962089e871b94cbd09daf317
"""
top_k = min(top_k, logits.size(-1)) # Safety check
if top_k > 0:
# Remove all tokens with a probability less than the last token of the top-k
indices_to_remove = logits < torch.topk(logits, top_k)[0][..., -1, None]
logits[indices_to_remove] = filter_value
if top_p > 0.0:
sorted_logits, sorted_indices = torch.sort(logits, descending=True)
cumulative_probs = torch.cumsum(F.softmax(sorted_logits, dim=-1), dim=-1)
# Remove tokens with cumulative probability above the threshold
sorted_indices_to_remove = cumulative_probs > top_p
# Shift the indices to the right to keep also the first token above the threshold
sorted_indices_to_remove[..., 1:] = sorted_indices_to_remove[..., :-1].clone()
sorted_indices_to_remove[..., 0] = 0
# scatter sorted tensors to original indexing
indices_to_remove = sorted_indices_to_remove.scatter(dim=1, index=sorted_indices, src=sorted_indices_to_remove)
logits[indices_to_remove] = filter_value
return logits
def sample_sequence(model, length, context, num_samples=1, temperature=1, top_k=0, top_p=0.0, repetition_penalty=1.0,
is_xlnet=False, is_xlm_mlm=False, xlm_mask_token=None, xlm_lang=None, device='cpu'):
context = torch.tensor(context, dtype=torch.long, device=device)
context = context.unsqueeze(0).repeat(num_samples, 1)
generated = context
# all_loss = []
with torch.no_grad():
for _ in range(length):
inputs = {'input_ids': generated}
if is_xlnet:
# XLNet is a direct (predict same token, not next token) and bi-directional model by default
# => need one additional dummy token in the input (will be masked), attention mask and target mapping (see model docstring)
input_ids = torch.cat((generated, torch.zeros((1, 1), dtype=torch.long, device=device)), dim=1)
perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float, device=device)
perm_mask[:, :, -1] = 1.0 # Previous tokens don't see last token
target_mapping = torch.zeros((1, 1, input_ids.shape[1]), dtype=torch.float, device=device)
target_mapping[0, 0, -1] = 1.0 # predict last token
inputs = {'input_ids': input_ids, 'perm_mask': perm_mask, 'target_mapping': target_mapping}
if is_xlm_mlm and xlm_mask_token:
# XLM MLM models are direct models (predict same token, not next token)
# => need one additional dummy token in the input (will be masked and guessed)
input_ids = torch.cat((generated, torch.full((1, 1), xlm_mask_token, dtype=torch.long, device=device)), dim=1)
inputs = {'input_ids': input_ids}
if xlm_lang is not None:
inputs["langs"] = torch.tensor([xlm_lang] * inputs["input_ids"].shape[1], device=device).view(1, -1)
outputs = model(**inputs) # Note: we could also use 'past' with GPT-2/Transfo-XL/XLNet/CTRL (cached hidden-states)
next_token_logits = outputs[0][:, -1, :] / (temperature if temperature > 0 else 1.)
# print(next_token_logits.size())
# tmp_eval_loss = outputs[0][:, :, -1][-1][-1]
# print(outputs[0][:, :, -1][-1])
# print (tmp_eval_loss.size ())
# cur_loss = np.abs(tmp_eval_loss.item())
# print(cur_loss)
# all_loss.append(cur_loss)
# repetition penalty from CTRL (https://arxiv.org/abs/1909.05858)
for i in range(num_samples):
for _ in set(generated[i].tolist()):
next_token_logits[i, _] /= repetition_penalty
filtered_logits = top_k_top_p_filtering(next_token_logits, top_k=top_k, top_p=top_p)
if temperature == 0: # greedy sampling:
next_token = torch.argmax(filtered_logits, dim=-1).unsqueeze(-1)
else:
next_token = torch.multinomial(F.softmax(filtered_logits, dim=-1), num_samples=1)
generated = torch.cat((generated, next_token), dim=1)
# print(next_token.item())
if next_token.item() == 29:
break
# print(all_loss)
# avg_loss = np.mean (np.array (all_loss))
# ppl = np.exp(avg_loss)
# print('test_loss (bpe): %.4f, test_perplexity: %.4f' % (avg_loss, ppl))
return generated
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--model_type", default='gpt2', type=str, required=False,
help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
parser.add_argument("--model_name_or_path", default='/data/xieyuqiang/story_comprehension/checkpoints_ft_with_roc/lmft_lm_gpt2_roc_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1', type=str, required=False,
help="Path to pre-trained model or shortcut name selected in the list: " + ", ".join(ALL_MODELS))
parser.add_argument("--source_text_path", type=str, default="/data/xieyuqiang/story_comprehension/data/roc/roc_train.csv_causal.tsv")
parser.add_argument("--prompt", type=str, default=" ")
parser.add_argument("--padding_text", type=str, default="")
parser.add_argument("--xlm_lang", type=str, default="", help="Optional language when used with the XLM model.")
parser.add_argument("--length", type=int, default=30)
parser.add_argument("--batch", type=int, default=2)
parser.add_argument("--num_samples", type=int, default=1)
parser.add_argument("--temperature", type=float, default=0,
help="temperature of 0 implies greedy sampling")
parser.add_argument("--repetition_penalty", type=float, default=1.2,
help="primarily useful for CTRL model; in that case, use 1.2")
parser.add_argument("--top_k", type=int, default=1)
parser.add_argument("--top_p", type=float, default=0.9)
parser.add_argument("--no_cuda", action='store_true',
help="Avoid using CUDA when available")
parser.add_argument('--seed', type=int, default=42,
help="random seed for initialization")
parser.add_argument('--stop_token', type=str, default='<|endoftext|>',
help="Token at which text generation is stopped")
parser.add_argument ('--style', type=str, default='temporal',
help="The style for generating the pseudo wrong endings: temporal/causal")
args = parser.parse_args()
args.device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
args.n_gpu = torch.cuda.device_count()
set_seed(args)
args.model_type = args.model_type.lower()
model_class, tokenizer_class = MODEL_CLASSES[args.model_type]
tokenizer = tokenizer_class.from_pretrained(args.model_name_or_path)
model = model_class.from_pretrained(args.model_name_or_path)
model.to(args.device)
model.eval()
if args.length < 0 and model.config.max_position_embeddings > 0:
args.length = model.config.max_position_embeddings
elif 0 < model.config.max_position_embeddings < args.length:
args.length = model.config.max_position_embeddings # No generation bigger than model size
elif args.length < 0:
args.length = MAX_LENGTH # avoid infinite loop
logger.info(args)
if args.model_type in ["ctrl"]:
if args.temperature > 0.7:
logger.info('CTRL typically works better with lower temperatures (and lower top_k).')
while True:
xlm_lang = None
# XLM Language usage detailed in the issues #1414
if args.model_type in ["xlm"] and hasattr(tokenizer, 'lang2id') and hasattr(model.config, 'use_lang_emb') \
and model.config.use_lang_emb:
if args.xlm_lang:
language = args.xlm_lang
else:
language = None
while language not in tokenizer.lang2id.keys():
language = input("Using XLM. Select language in " + str(list(tokenizer.lang2id.keys())) + " >>> ")
xlm_lang = tokenizer.lang2id[language]
# XLM masked-language modeling (MLM) models need masked token (see details in sample_sequence)
is_xlm_mlm = args.model_type in ["xlm"] and 'mlm' in args.model_name_or_path
if is_xlm_mlm:
xlm_mask_token = tokenizer.mask_token_id
else:
xlm_mask_token = None
raw_text = args.prompt if args.prompt else input("Model prompt >>> ")
if args.model_type in ["transfo-xl", "xlnet"]:
# Models with memory likes to have a long prompt for short inputs.
raw_text = (args.padding_text if args.padding_text else PADDING_TEXT) + raw_text
context_tokens = tokenizer.encode(raw_text, add_special_tokens=False)
if args.model_type == "ctrl":
if not any(context_tokens[0] == x for x in tokenizer.control_codes.values()):
logger.info("WARNING! You are not starting your generation from a control code so you won't get good results")
with open (args.source_text_path + "_generated.tsv", 'w', encoding='utf-8') as new_file:
f = open (args.source_text_path)
a = f.readlines ()
all_data = []
for i in a[1:]:
item = i.replace ("\n", "").split ('\t')
all_data.append (item)
# print(all_data[0])
new_file.write ('context\tsource\ttarget\n')
from tqdm import tqdm
# source_corpus = []
# target_corpus = []
for raw_data in tqdm(all_data):
context = raw_data[0] + ' ' + raw_data[1]
source = raw_data[3]
target = raw_data[0]+ ' ' + raw_data[2]
context_tokens = tokenizer.encode (target, add_special_tokens=False)
out = sample_sequence (
model=model,
context=context_tokens,
num_samples=args.num_samples,
length=args.length,
temperature=args.temperature,
top_k=args.top_k,
top_p=args.top_p,
repetition_penalty=args.repetition_penalty,
is_xlnet=bool (args.model_type == "xlnet"),
is_xlm_mlm=is_xlm_mlm,
xlm_mask_token=xlm_mask_token,
xlm_lang=xlm_lang,
device=args.device,
)
out = out[:, len (context_tokens):].tolist ()
for o in out:
# text = tokenizer.decode(o, cleanI_up_tokenization_spaces=True)
text = tokenizer.decode (o)
text = text[: text.find (args.stop_token) if args.stop_token else None]
target = text.replace ('<|endoftext|>', '')
# source_corpus.append(source)
# target_corpus.append(target)
new_file.write (context+"\t"+source+"\t"+target+"\n")
f.close()
if args.prompt:
break
# return target
if __name__ == '__main__':
main()
| [] |
2024-01-10 | IndexFziQ/CLSEG | src~run_generation_cl_cr.py | #!/usr/bin/env python3
# coding=utf-8
# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team.
# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
""" Conditional text generation with the auto-regressive models of the library (GPT/GPT-2/CTRL/Transformer-XL/XLNet)
"""
from __future__ import absolute_import, division, print_function, unicode_literals
import argparse
import logging
from tqdm import trange
import torch
import torch.nn.functional as F
import numpy as np
from transformers import GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig
from transformers import GPT2LMHeadModel, GPT2Tokenizer
from transformers import OpenAIGPTLMHeadModel, OpenAIGPTTokenizer
from transformers import XLNetLMHeadModel, XLNetTokenizer
from transformers import TransfoXLLMHeadModel, TransfoXLTokenizer
from transformers import CTRLLMHeadModel, CTRLTokenizer
from transformers import XLMWithLMHeadModel, XLMTokenizer
# from tools.EA.get_concepts_from_behave import tokenization, lower_case
# from tools.EA.LIB.EVAL.bleu import compute_bleu
# from tools.EA.LIB.EVAL.rouge import compute_rouge_L
import sacrebleu
from rouge import Rouge
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.INFO)
logger = logging.getLogger(__name__)
MAX_LENGTH = int(10000) # Hardcoded max length to avoid infinite loop
ALL_MODELS = sum((tuple(conf.pretrained_config_archive_map.keys()) for conf in (GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig)), ())
MODEL_CLASSES = {
'gpt2': (GPT2LMHeadModel, GPT2Tokenizer),
'ctrl': (CTRLLMHeadModel, CTRLTokenizer),
'openai-gpt': (OpenAIGPTLMHeadModel, OpenAIGPTTokenizer),
'xlnet': (XLNetLMHeadModel, XLNetTokenizer),
'transfo-xl': (TransfoXLLMHeadModel, TransfoXLTokenizer),
'xlm': (XLMWithLMHeadModel, XLMTokenizer),
}
# Padding text to help Transformer-XL and XLNet with short prompts as proposed by Aman Rusia
# in https://github.com/rusiaaman/XLNet-gen#methodology
# and https://medium.com/@amanrusia/xlnet-speaks-comparison-to-gpt-2-ea1a4e9ba39e
# PADDING_TEXT = """ In 1991, the remains of Russian Tsar Nicholas II and his family
# (except for Alexei and Maria) are discovered.
# The voice of Nicholas's young son, Tsarevich Alexei Nikolaevich, narrates the
# remainder of the story. 1883 Western Siberia,
# a young Grigori Rasputin is asked by his father and a group of men to perform magic.
# Rasputin has a vision and denounces one of the men as a horse thief. Although his
# father initially slaps him for making such an accusation, Rasputin watches as the
# man is chased outside and beaten. Twenty years later, Rasputin sees a vision of
# the Virgin Mary, prompting him to become a priest. Rasputin quickly becomes famous,
# with people, even a bishop, begging for his blessing. <eod> </s> <eos>"""
def set_seed(args):
np.random.seed(args.seed)
torch.manual_seed(args.seed)
if args.n_gpu > 0:
torch.cuda.manual_seed_all(args.seed)
def top_k_top_p_filtering(logits, top_k=0, top_p=0.0, filter_value=-float('Inf')):
""" Filter a distribution of logits using top-k and/or nucleus (top-p) filtering
Args:
logits: logits distribution shape (batch size x vocabulary size)
top_k > 0: keep only top k tokens with highest probability (top-k filtering).
top_p > 0.0: keep the top tokens with cumulative probability >= top_p (nucleus filtering).
Nucleus filtering is described in Holtzman et al. (http://arxiv.org/abs/1904.09751)
From: https://gist.github.com/thomwolf/1a5a29f6962089e871b94cbd09daf317
"""
top_k = min(top_k, logits.size(-1)) # Safety check
if top_k > 0:
# Remove all tokens with a probability less than the last token of the top-k
indices_to_remove = logits < torch.topk(logits, top_k)[0][..., -1, None]
logits[indices_to_remove] = filter_value
if top_p > 0.0:
sorted_logits, sorted_indices = torch.sort(logits, descending=True)
cumulative_probs = torch.cumsum(F.softmax(sorted_logits, dim=-1), dim=-1)
# Remove tokens with cumulative probability above the threshold
sorted_indices_to_remove = cumulative_probs > top_p
# Shift the indices to the right to keep also the first token above the threshold
sorted_indices_to_remove[..., 1:] = sorted_indices_to_remove[..., :-1].clone()
sorted_indices_to_remove[..., 0] = 0
# scatter sorted tensors to original indexing
indices_to_remove = sorted_indices_to_remove.scatter(dim=1, index=sorted_indices, src=sorted_indices_to_remove)
logits[indices_to_remove] = filter_value
return logits
def sample_sequence(model, length, context, num_samples=1, temperature=1, top_k=0, top_p=0.0, repetition_penalty=1.0,
is_xlnet=False, is_xlm_mlm=False, xlm_mask_token=None, xlm_lang=None, device='cpu'):
context = torch.tensor(context, dtype=torch.long, device=device)
context = context.unsqueeze(0).repeat(num_samples, 1)
generated = context
# all_loss = []
with torch.no_grad():
for _ in range(length):
inputs = {'input_ids': generated}
if is_xlnet:
# XLNet is a direct (predict same token, not next token) and bi-directional model by default
# => need one additional dummy token in the input (will be masked), attention mask and target mapping (see model docstring)
input_ids = torch.cat((generated, torch.zeros((1, 1), dtype=torch.long, device=device)), dim=1)
perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float, device=device)
perm_mask[:, :, -1] = 1.0 # Previous tokens don't see last token
target_mapping = torch.zeros((1, 1, input_ids.shape[1]), dtype=torch.float, device=device)
target_mapping[0, 0, -1] = 1.0 # predict last token
inputs = {'input_ids': input_ids, 'perm_mask': perm_mask, 'target_mapping': target_mapping}
if is_xlm_mlm and xlm_mask_token:
# XLM MLM models are direct models (predict same token, not next token)
# => need one additional dummy token in the input (will be masked and guessed)
input_ids = torch.cat((generated, torch.full((1, 1), xlm_mask_token, dtype=torch.long, device=device)), dim=1)
inputs = {'input_ids': input_ids}
if xlm_lang is not None:
inputs["langs"] = torch.tensor([xlm_lang] * inputs["input_ids"].shape[1], device=device).view(1, -1)
outputs = model(**inputs) # Note: we could also use 'past' with GPT-2/Transfo-XL/XLNet/CTRL (cached hidden-states)
next_token_logits = outputs[0][:, -1, :] / (temperature if temperature > 0 else 1.)
# print(next_token_logits.size())
# tmp_eval_loss = outputs[0][:, :, -1][-1][-1]
# print(outputs[0][:, :, -1][-1])
# print (tmp_eval_loss.size ())
# cur_loss = np.abs(tmp_eval_loss.item())
# print(cur_loss)
# all_loss.append(cur_loss)
# repetition penalty from CTRL (https://arxiv.org/abs/1909.05858)
for i in range(num_samples):
for _ in set(generated[i].tolist()):
next_token_logits[i, _] /= repetition_penalty
filtered_logits = top_k_top_p_filtering(next_token_logits, top_k=top_k, top_p=top_p)
if temperature == 0: # greedy sampling:
next_token = torch.argmax(filtered_logits, dim=-1).unsqueeze(-1)
else:
next_token = torch.multinomial(F.softmax(filtered_logits, dim=-1), num_samples=1)
generated = torch.cat((generated, next_token), dim=1)
# print(next_token.item())
if next_token.item() == 29:
break
# print(all_loss)
# avg_loss = np.mean (np.array (all_loss))
# ppl = np.exp(avg_loss)
# print('test_loss (bpe): %.4f, test_perplexity: %.4f' % (avg_loss, ppl))
return generated
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_roc/lmft_lm_gpt2_rocmedium_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_cl/lmft_lm_gpt2_cl_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--model_type", default='gpt2', type=str, required=False,
help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
parser.add_argument("--model_name_or_path", default='/data/xieyuqiang/story_comprehension/checkpoints_ft_with_cl/lmft_lm_gpt2_clcr_gn1_bp1_gc32_lr1_l128_e3_seed42_cgn1', type=str, required=False,
help="Path to pre-trained model or shortcut name selected in the list: " + ", ".join(ALL_MODELS))
parser.add_argument("--source_text_path", type=str, default="/data/xieyuqiang/story_comprehension/data/roc/roc_val.csv")
parser.add_argument("--prompt", type=str, default=" ")
parser.add_argument("--padding_text", type=str, default="")
parser.add_argument("--xlm_lang", type=str, default="", help="Optional language when used with the XLM model.")
parser.add_argument("--length", type=int, default=30)
parser.add_argument("--batch", type=int, default=10)
parser.add_argument("--num_samples", type=int, default=1)
parser.add_argument("--temperature", type=float, default=0,
help="temperature of 0 implies greedy sampling")
parser.add_argument("--repetition_penalty", type=float, default=1.2,
help="primarily useful for CTRL model; in that case, use 1.2")
parser.add_argument("--top_k", type=int, default=1)
parser.add_argument("--top_p", type=float, default=0.9)
parser.add_argument("--no_cuda", action='store_true',
help="Avoid using CUDA when available")
parser.add_argument('--seed', type=int, default=42,
help="random seed for initialization")
parser.add_argument('--stop_token', type=str, default='<|endoftext|>',
help="Token at which text generation is stopped")
parser.add_argument ('--style', type=str, default='temporal',
help="The style for generating the pseudo wrong endings: temporal/causal")
args = parser.parse_args()
args.device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
args.n_gpu = torch.cuda.device_count()
set_seed(args)
args.model_type = args.model_type.lower()
model_class, tokenizer_class = MODEL_CLASSES[args.model_type]
tokenizer = tokenizer_class.from_pretrained(args.model_name_or_path)
model = model_class.from_pretrained(args.model_name_or_path)
model.to(args.device)
model.eval()
if args.length < 0 and model.config.max_position_embeddings > 0:
args.length = model.config.max_position_embeddings
elif 0 < model.config.max_position_embeddings < args.length:
args.length = model.config.max_position_embeddings # No generation bigger than model size
elif args.length < 0:
args.length = MAX_LENGTH # avoid infinite loop
logger.info(args)
if args.model_type in ["ctrl"]:
if args.temperature > 0.7:
logger.info('CTRL typically works better with lower temperatures (and lower top_k).')
while True:
xlm_lang = None
# XLM Language usage detailed in the issues #1414
if args.model_type in ["xlm"] and hasattr(tokenizer, 'lang2id') and hasattr(model.config, 'use_lang_emb') \
and model.config.use_lang_emb:
if args.xlm_lang:
language = args.xlm_lang
else:
language = None
while language not in tokenizer.lang2id.keys():
language = input("Using XLM. Select language in " + str(list(tokenizer.lang2id.keys())) + " >>> ")
xlm_lang = tokenizer.lang2id[language]
# XLM masked-language modeling (MLM) models need masked token (see details in sample_sequence)
is_xlm_mlm = args.model_type in ["xlm"] and 'mlm' in args.model_name_or_path
if is_xlm_mlm:
xlm_mask_token = tokenizer.mask_token_id
else:
xlm_mask_token = None
raw_text = args.prompt if args.prompt else input("Model prompt >>> ")
if args.model_type in ["transfo-xl", "xlnet"]:
# Models with memory likes to have a long prompt for short inputs.
raw_text = (args.padding_text if args.padding_text else PADDING_TEXT) + raw_text
context_tokens = tokenizer.encode(raw_text, add_special_tokens=False)
if args.model_type == "ctrl":
if not any(context_tokens[0] == x for x in tokenizer.control_codes.values()):
logger.info("WARNING! You are not starting your generation from a control code so you won't get good results")
with open (args.source_text_path, 'r', encoding='utf-8') as data_file, \
open (args.source_text_path + "_cl_cr_result.tsv", 'w', encoding='utf-8') as new_file, \
open (args.source_text_path + "_cl_cr_eval.tsv", 'w', encoding='utf-8') as eval_file:
import csv
reader = csv.reader (data_file)
next (reader)
all_data = []
for line in reader:
all_data.append (line)
print (all_data[0])
new_file.write ('context\tsource\ttarget\n')
from tqdm import tqdm
source_corpus = []
target_corpus = []
for raw_data in tqdm(all_data):
context = ' '.join(raw_data[2:6])
source = raw_data[6]
# import random
list = raw_data[2:6]
# random.shuffle(list)
target = ' '.join(list)
context_tokens = tokenizer.encode (target, add_special_tokens=False)
out = sample_sequence (
model=model,
context=context_tokens,
num_samples=args.num_samples,
length=args.length,
temperature=args.temperature,
top_k=args.top_k,
top_p=args.top_p,
repetition_penalty=args.repetition_penalty,
is_xlnet=bool (args.model_type == "xlnet"),
is_xlm_mlm=is_xlm_mlm,
xlm_mask_token=xlm_mask_token,
xlm_lang=xlm_lang,
device=args.device,
)
out = out[:, len (context_tokens):].tolist ()
for o in out:
# text = tokenizer.decode(o, cleanI_up_tokenization_spaces=True)
text = tokenizer.decode (o)
text = text[: text.find (args.stop_token) if args.stop_token else None]
target = text.replace ('<|endoftext|>', '')
source_corpus.append(source)
target_corpus.append(target)
new_file.write (context+"\t"+source+"\t"+target+"\n")
bleu_list = []
rouge_ = []
for source, target in zip (source_corpus, target_corpus):
bleu = sacrebleu.corpus_bleu (target, source)
bleu_list.append (bleu.precisions)
rouge = Rouge ()
for source, target in zip (source_corpus, target_corpus):
# rouge_l = compute_rouge_L(source, target)
rouge_x = rouge.get_scores (source, target)
rouge_1 = rouge_x[0]["rouge-1"]['f']
rouge_2 = rouge_x[0]["rouge-2"]['f']
rouge_l = rouge_x[0]["rouge-l"]['f']
rouge_.append ([rouge_1, rouge_2, rouge_l])
bleu_score = np.mean (bleu_list, axis=0)
rouge_score_ = np.mean (rouge_, axis=0)
print ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
print ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
print ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
print ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
print ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
print ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
eval_file.write ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
eval_file.write ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
eval_file.write ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
eval_file.write ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
eval_file.write ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
eval_file.write ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
if args.prompt:
break
# return target
if __name__ == '__main__':
main()
| [] |
2024-01-10 | IndexFziQ/CLSEG | src~run_generation_cl_so.py | #!/usr/bin/env python3
# coding=utf-8
# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team.
# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
""" Conditional text generation with the auto-regressive models of the library (GPT/GPT-2/CTRL/Transformer-XL/XLNet)
"""
from __future__ import absolute_import, division, print_function, unicode_literals
import argparse
import logging
from tqdm import trange
import torch
import torch.nn.functional as F
import numpy as np
from transformers import GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig
from transformers import GPT2LMHeadModel, GPT2Tokenizer
from transformers import OpenAIGPTLMHeadModel, OpenAIGPTTokenizer
from transformers import XLNetLMHeadModel, XLNetTokenizer
from transformers import TransfoXLLMHeadModel, TransfoXLTokenizer
from transformers import CTRLLMHeadModel, CTRLTokenizer
from transformers import XLMWithLMHeadModel, XLMTokenizer
# from tools.EA.get_concepts_from_behave import tokenization, lower_case
# from tools.EA.LIB.EVAL.bleu import compute_bleu
# from tools.EA.LIB.EVAL.rouge import compute_rouge_L
import sacrebleu
from rouge import Rouge
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.INFO)
logger = logging.getLogger(__name__)
MAX_LENGTH = int(10000) # Hardcoded max length to avoid infinite loop
ALL_MODELS = sum((tuple(conf.pretrained_config_archive_map.keys()) for conf in (GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig)), ())
MODEL_CLASSES = {
'gpt2': (GPT2LMHeadModel, GPT2Tokenizer),
'ctrl': (CTRLLMHeadModel, CTRLTokenizer),
'openai-gpt': (OpenAIGPTLMHeadModel, OpenAIGPTTokenizer),
'xlnet': (XLNetLMHeadModel, XLNetTokenizer),
'transfo-xl': (TransfoXLLMHeadModel, TransfoXLTokenizer),
'xlm': (XLMWithLMHeadModel, XLMTokenizer),
}
# Padding text to help Transformer-XL and XLNet with short prompts as proposed by Aman Rusia
# in https://github.com/rusiaaman/XLNet-gen#methodology
# and https://medium.com/@amanrusia/xlnet-speaks-comparison-to-gpt-2-ea1a4e9ba39e
# PADDING_TEXT = """ In 1991, the remains of Russian Tsar Nicholas II and his family
# (except for Alexei and Maria) are discovered.
# The voice of Nicholas's young son, Tsarevich Alexei Nikolaevich, narrates the
# remainder of the story. 1883 Western Siberia,
# a young Grigori Rasputin is asked by his father and a group of men to perform magic.
# Rasputin has a vision and denounces one of the men as a horse thief. Although his
# father initially slaps him for making such an accusation, Rasputin watches as the
# man is chased outside and beaten. Twenty years later, Rasputin sees a vision of
# the Virgin Mary, prompting him to become a priest. Rasputin quickly becomes famous,
# with people, even a bishop, begging for his blessing. <eod> </s> <eos>"""
def set_seed(args):
np.random.seed(args.seed)
torch.manual_seed(args.seed)
if args.n_gpu > 0:
torch.cuda.manual_seed_all(args.seed)
def top_k_top_p_filtering(logits, top_k=0, top_p=0.0, filter_value=-float('Inf')):
""" Filter a distribution of logits using top-k and/or nucleus (top-p) filtering
Args:
logits: logits distribution shape (batch size x vocabulary size)
top_k > 0: keep only top k tokens with highest probability (top-k filtering).
top_p > 0.0: keep the top tokens with cumulative probability >= top_p (nucleus filtering).
Nucleus filtering is described in Holtzman et al. (http://arxiv.org/abs/1904.09751)
From: https://gist.github.com/thomwolf/1a5a29f6962089e871b94cbd09daf317
"""
top_k = min(top_k, logits.size(-1)) # Safety check
if top_k > 0:
# Remove all tokens with a probability less than the last token of the top-k
indices_to_remove = logits < torch.topk(logits, top_k)[0][..., -1, None]
logits[indices_to_remove] = filter_value
if top_p > 0.0:
sorted_logits, sorted_indices = torch.sort(logits, descending=True)
cumulative_probs = torch.cumsum(F.softmax(sorted_logits, dim=-1), dim=-1)
# Remove tokens with cumulative probability above the threshold
sorted_indices_to_remove = cumulative_probs > top_p
# Shift the indices to the right to keep also the first token above the threshold
sorted_indices_to_remove[..., 1:] = sorted_indices_to_remove[..., :-1].clone()
sorted_indices_to_remove[..., 0] = 0
# scatter sorted tensors to original indexing
indices_to_remove = sorted_indices_to_remove.scatter(dim=1, index=sorted_indices, src=sorted_indices_to_remove)
logits[indices_to_remove] = filter_value
return logits
def sample_sequence(model, length, context, num_samples=1, temperature=1, top_k=0, top_p=0.0, repetition_penalty=1.0,
is_xlnet=False, is_xlm_mlm=False, xlm_mask_token=None, xlm_lang=None, device='cpu'):
context = torch.tensor(context, dtype=torch.long, device=device)
context = context.unsqueeze(0).repeat(num_samples, 1)
generated = context
# all_loss = []
with torch.no_grad():
for _ in range(length):
inputs = {'input_ids': generated}
if is_xlnet:
# XLNet is a direct (predict same token, not next token) and bi-directional model by default
# => need one additional dummy token in the input (will be masked), attention mask and target mapping (see model docstring)
input_ids = torch.cat((generated, torch.zeros((1, 1), dtype=torch.long, device=device)), dim=1)
perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float, device=device)
perm_mask[:, :, -1] = 1.0 # Previous tokens don't see last token
target_mapping = torch.zeros((1, 1, input_ids.shape[1]), dtype=torch.float, device=device)
target_mapping[0, 0, -1] = 1.0 # predict last token
inputs = {'input_ids': input_ids, 'perm_mask': perm_mask, 'target_mapping': target_mapping}
if is_xlm_mlm and xlm_mask_token:
# XLM MLM models are direct models (predict same token, not next token)
# => need one additional dummy token in the input (will be masked and guessed)
input_ids = torch.cat((generated, torch.full((1, 1), xlm_mask_token, dtype=torch.long, device=device)), dim=1)
inputs = {'input_ids': input_ids}
if xlm_lang is not None:
inputs["langs"] = torch.tensor([xlm_lang] * inputs["input_ids"].shape[1], device=device).view(1, -1)
outputs = model(**inputs) # Note: we could also use 'past' with GPT-2/Transfo-XL/XLNet/CTRL (cached hidden-states)
next_token_logits = outputs[0][:, -1, :] / (temperature if temperature > 0 else 1.)
# print(next_token_logits.size())
# tmp_eval_loss = outputs[0][:, :, -1][-1][-1]
# print(outputs[0][:, :, -1][-1])
# print (tmp_eval_loss.size ())
# cur_loss = np.abs(tmp_eval_loss.item())
# print(cur_loss)
# all_loss.append(cur_loss)
# repetition penalty from CTRL (https://arxiv.org/abs/1909.05858)
for i in range(num_samples):
for _ in set(generated[i].tolist()):
next_token_logits[i, _] /= repetition_penalty
filtered_logits = top_k_top_p_filtering(next_token_logits, top_k=top_k, top_p=top_p)
if temperature == 0: # greedy sampling:
next_token = torch.argmax(filtered_logits, dim=-1).unsqueeze(-1)
else:
next_token = torch.multinomial(F.softmax(filtered_logits, dim=-1), num_samples=1)
generated = torch.cat((generated, next_token), dim=1)
# print(next_token.item())
if next_token.item() == 29:
break
# print(all_loss)
# avg_loss = np.mean (np.array (all_loss))
# ppl = np.exp(avg_loss)
# print('test_loss (bpe): %.4f, test_perplexity: %.4f' % (avg_loss, ppl))
return generated
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_roc/lmft_lm_gpt2_rocmedium_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_cl/lmft_lm_gpt2_cl_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--model_type", default='gpt2', type=str, required=False,
help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
parser.add_argument("--model_name_or_path", default='/data/xieyuqiang/story_comprehension/checkpoints_ft_with_cl/lmft_lm_gpt2_clso_gn1_bp1_gc32_lr1_l128_e3_seed42_cgn1', type=str, required=False,
help="Path to pre-trained model or shortcut name selected in the list: " + ", ".join(ALL_MODELS))
parser.add_argument("--source_text_path", type=str, default="/data/xieyuqiang/story_comprehension/data/roc/roc_val.csv")
parser.add_argument("--prompt", type=str, default=" ")
parser.add_argument("--padding_text", type=str, default="")
parser.add_argument("--xlm_lang", type=str, default="", help="Optional language when used with the XLM model.")
parser.add_argument("--length", type=int, default=30)
parser.add_argument("--batch", type=int, default=10)
parser.add_argument("--num_samples", type=int, default=1)
parser.add_argument("--temperature", type=float, default=0,
help="temperature of 0 implies greedy sampling")
parser.add_argument("--repetition_penalty", type=float, default=1.2,
help="primarily useful for CTRL model; in that case, use 1.2")
parser.add_argument("--top_k", type=int, default=1)
parser.add_argument("--top_p", type=float, default=0.9)
parser.add_argument("--no_cuda", action='store_true',
help="Avoid using CUDA when available")
parser.add_argument('--seed', type=int, default=42,
help="random seed for initialization")
parser.add_argument('--stop_token', type=str, default='<|endoftext|>',
help="Token at which text generation is stopped")
parser.add_argument ('--style', type=str, default='temporal',
help="The style for generating the pseudo wrong endings: temporal/causal")
args = parser.parse_args()
args.device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
args.n_gpu = torch.cuda.device_count()
set_seed(args)
args.model_type = args.model_type.lower()
model_class, tokenizer_class = MODEL_CLASSES[args.model_type]
tokenizer = tokenizer_class.from_pretrained(args.model_name_or_path)
model = model_class.from_pretrained(args.model_name_or_path)
model.to(args.device)
model.eval()
if args.length < 0 and model.config.max_position_embeddings > 0:
args.length = model.config.max_position_embeddings
elif 0 < model.config.max_position_embeddings < args.length:
args.length = model.config.max_position_embeddings # No generation bigger than model size
elif args.length < 0:
args.length = MAX_LENGTH # avoid infinite loop
logger.info(args)
if args.model_type in ["ctrl"]:
if args.temperature > 0.7:
logger.info('CTRL typically works better with lower temperatures (and lower top_k).')
while True:
xlm_lang = None
# XLM Language usage detailed in the issues #1414
if args.model_type in ["xlm"] and hasattr(tokenizer, 'lang2id') and hasattr(model.config, 'use_lang_emb') \
and model.config.use_lang_emb:
if args.xlm_lang:
language = args.xlm_lang
else:
language = None
while language not in tokenizer.lang2id.keys():
language = input("Using XLM. Select language in " + str(list(tokenizer.lang2id.keys())) + " >>> ")
xlm_lang = tokenizer.lang2id[language]
# XLM masked-language modeling (MLM) models need masked token (see details in sample_sequence)
is_xlm_mlm = args.model_type in ["xlm"] and 'mlm' in args.model_name_or_path
if is_xlm_mlm:
xlm_mask_token = tokenizer.mask_token_id
else:
xlm_mask_token = None
raw_text = args.prompt if args.prompt else input("Model prompt >>> ")
if args.model_type in ["transfo-xl", "xlnet"]:
# Models with memory likes to have a long prompt for short inputs.
raw_text = (args.padding_text if args.padding_text else PADDING_TEXT) + raw_text
context_tokens = tokenizer.encode(raw_text, add_special_tokens=False)
if args.model_type == "ctrl":
if not any(context_tokens[0] == x for x in tokenizer.control_codes.values()):
logger.info("WARNING! You are not starting your generation from a control code so you won't get good results")
with open (args.source_text_path, 'r', encoding='utf-8') as data_file, \
open (args.source_text_path + "_cl_so_result.tsv", 'w', encoding='utf-8') as new_file, \
open (args.source_text_path + "_cl_so_eval.tsv", 'w', encoding='utf-8') as eval_file:
import csv
reader = csv.reader (data_file)
next (reader)
all_data = []
for line in reader:
all_data.append (line)
print (all_data[0])
new_file.write ('context\tsource\ttarget\n')
from tqdm import tqdm
source_corpus = []
target_corpus = []
for raw_data in tqdm(all_data):
context = ' '.join(raw_data[2:6])
source = raw_data[6]
# import random
list = raw_data[2:6]
# random.shuffle(list)
target = ' '.join(list)
context_tokens = tokenizer.encode (target, add_special_tokens=False)
out = sample_sequence (
model=model,
context=context_tokens,
num_samples=args.num_samples,
length=args.length,
temperature=args.temperature,
top_k=args.top_k,
top_p=args.top_p,
repetition_penalty=args.repetition_penalty,
is_xlnet=bool (args.model_type == "xlnet"),
is_xlm_mlm=is_xlm_mlm,
xlm_mask_token=xlm_mask_token,
xlm_lang=xlm_lang,
device=args.device,
)
out = out[:, len (context_tokens):].tolist ()
for o in out:
# text = tokenizer.decode(o, cleanI_up_tokenization_spaces=True)
text = tokenizer.decode (o)
text = text[: text.find (args.stop_token) if args.stop_token else None]
target = text.replace ('<|endoftext|>', '')
source_corpus.append(source)
target_corpus.append(target)
new_file.write (context+"\t"+source+"\t"+target+"\n")
bleu_list = []
rouge_ = []
for source, target in zip (source_corpus, target_corpus):
bleu = sacrebleu.corpus_bleu (target, source)
bleu_list.append (bleu.precisions)
rouge = Rouge ()
for source, target in zip (source_corpus, target_corpus):
# rouge_l = compute_rouge_L(source, target)
rouge_x = rouge.get_scores (source, target)
rouge_1 = rouge_x[0]["rouge-1"]['f']
rouge_2 = rouge_x[0]["rouge-2"]['f']
rouge_l = rouge_x[0]["rouge-l"]['f']
rouge_.append ([rouge_1, rouge_2, rouge_l])
bleu_score = np.mean (bleu_list, axis=0)
rouge_score_ = np.mean (rouge_, axis=0)
print ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
print ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
print ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
print ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
print ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
print ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
eval_file.write ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
eval_file.write ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
eval_file.write ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
eval_file.write ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
eval_file.write ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
eval_file.write ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
if args.prompt:
break
# return target
if __name__ == '__main__':
main()
| [] |
2024-01-10 | IndexFziQ/CLSEG | src~run_generation_baseline_ft.py | #!/usr/bin/env python3
# coding=utf-8
# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team.
# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
""" Conditional text generation with the auto-regressive models of the library (GPT/GPT-2/CTRL/Transformer-XL/XLNet)
"""
from __future__ import absolute_import, division, print_function, unicode_literals
import argparse
import logging
from tqdm import trange
import torch
import torch.nn.functional as F
import numpy as np
from transformers import GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig
from transformers import GPT2LMHeadModel, GPT2Tokenizer
from transformers import OpenAIGPTLMHeadModel, OpenAIGPTTokenizer
from transformers import XLNetLMHeadModel, XLNetTokenizer
from transformers import TransfoXLLMHeadModel, TransfoXLTokenizer
from transformers import CTRLLMHeadModel, CTRLTokenizer
from transformers import XLMWithLMHeadModel, XLMTokenizer
# from tools.EA.get_concepts_from_behave import tokenization, lower_case
# from tools.EA.LIB.EVAL.bleu import compute_bleu
# from tools.EA.LIB.EVAL.rouge import compute_rouge_L
import sacrebleu
from rouge import Rouge
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.INFO)
logger = logging.getLogger(__name__)
MAX_LENGTH = int(10000) # Hardcoded max length to avoid infinite loop
ALL_MODELS = sum((tuple(conf.pretrained_config_archive_map.keys()) for conf in (GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig)), ())
MODEL_CLASSES = {
'gpt2': (GPT2LMHeadModel, GPT2Tokenizer),
'ctrl': (CTRLLMHeadModel, CTRLTokenizer),
'openai-gpt': (OpenAIGPTLMHeadModel, OpenAIGPTTokenizer),
'xlnet': (XLNetLMHeadModel, XLNetTokenizer),
'transfo-xl': (TransfoXLLMHeadModel, TransfoXLTokenizer),
'xlm': (XLMWithLMHeadModel, XLMTokenizer),
}
# Padding text to help Transformer-XL and XLNet with short prompts as proposed by Aman Rusia
# in https://github.com/rusiaaman/XLNet-gen#methodology
# and https://medium.com/@amanrusia/xlnet-speaks-comparison-to-gpt-2-ea1a4e9ba39e
# PADDING_TEXT = """ In 1991, the remains of Russian Tsar Nicholas II and his family
# (except for Alexei and Maria) are discovered.
# The voice of Nicholas's young son, Tsarevich Alexei Nikolaevich, narrates the
# remainder of the story. 1883 Western Siberia,
# a young Grigori Rasputin is asked by his father and a group of men to perform magic.
# Rasputin has a vision and denounces one of the men as a horse thief. Although his
# father initially slaps him for making such an accusation, Rasputin watches as the
# man is chased outside and beaten. Twenty years later, Rasputin sees a vision of
# the Virgin Mary, prompting him to become a priest. Rasputin quickly becomes famous,
# with people, even a bishop, begging for his blessing. <eod> </s> <eos>"""
def set_seed(args):
np.random.seed(args.seed)
torch.manual_seed(args.seed)
if args.n_gpu > 0:
torch.cuda.manual_seed_all(args.seed)
def top_k_top_p_filtering(logits, top_k=0, top_p=0.0, filter_value=-float('Inf')):
""" Filter a distribution of logits using top-k and/or nucleus (top-p) filtering
Args:
logits: logits distribution shape (batch size x vocabulary size)
top_k > 0: keep only top k tokens with highest probability (top-k filtering).
top_p > 0.0: keep the top tokens with cumulative probability >= top_p (nucleus filtering).
Nucleus filtering is described in Holtzman et al. (http://arxiv.org/abs/1904.09751)
From: https://gist.github.com/thomwolf/1a5a29f6962089e871b94cbd09daf317
"""
top_k = min(top_k, logits.size(-1)) # Safety check
if top_k > 0:
# Remove all tokens with a probability less than the last token of the top-k
indices_to_remove = logits < torch.topk(logits, top_k)[0][..., -1, None]
logits[indices_to_remove] = filter_value
if top_p > 0.0:
sorted_logits, sorted_indices = torch.sort(logits, descending=True)
cumulative_probs = torch.cumsum(F.softmax(sorted_logits, dim=-1), dim=-1)
# Remove tokens with cumulative probability above the threshold
sorted_indices_to_remove = cumulative_probs > top_p
# Shift the indices to the right to keep also the first token above the threshold
sorted_indices_to_remove[..., 1:] = sorted_indices_to_remove[..., :-1].clone()
sorted_indices_to_remove[..., 0] = 0
# scatter sorted tensors to original indexing
indices_to_remove = sorted_indices_to_remove.scatter(dim=1, index=sorted_indices, src=sorted_indices_to_remove)
logits[indices_to_remove] = filter_value
return logits
def sample_sequence(model, length, context, num_samples=1, temperature=1, top_k=0, top_p=0.0, repetition_penalty=1.0,
is_xlnet=False, is_xlm_mlm=False, xlm_mask_token=None, xlm_lang=None, device='cpu'):
context = torch.tensor(context, dtype=torch.long, device=device)
context = context.unsqueeze(0).repeat(num_samples, 1)
generated = context
# all_loss = []
with torch.no_grad():
for _ in range(length):
inputs = {'input_ids': generated}
if is_xlnet:
# XLNet is a direct (predict same token, not next token) and bi-directional model by default
# => need one additional dummy token in the input (will be masked), attention mask and target mapping (see model docstring)
input_ids = torch.cat((generated, torch.zeros((1, 1), dtype=torch.long, device=device)), dim=1)
perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float, device=device)
perm_mask[:, :, -1] = 1.0 # Previous tokens don't see last token
target_mapping = torch.zeros((1, 1, input_ids.shape[1]), dtype=torch.float, device=device)
target_mapping[0, 0, -1] = 1.0 # predict last token
inputs = {'input_ids': input_ids, 'perm_mask': perm_mask, 'target_mapping': target_mapping}
if is_xlm_mlm and xlm_mask_token:
# XLM MLM models are direct models (predict same token, not next token)
# => need one additional dummy token in the input (will be masked and guessed)
input_ids = torch.cat((generated, torch.full((1, 1), xlm_mask_token, dtype=torch.long, device=device)), dim=1)
inputs = {'input_ids': input_ids}
if xlm_lang is not None:
inputs["langs"] = torch.tensor([xlm_lang] * inputs["input_ids"].shape[1], device=device).view(1, -1)
outputs = model(**inputs) # Note: we could also use 'past' with GPT-2/Transfo-XL/XLNet/CTRL (cached hidden-states)
next_token_logits = outputs[0][:, -1, :] / (temperature if temperature > 0 else 1.)
# print(next_token_logits.size())
# tmp_eval_loss = outputs[0][:, :, -1][-1][-1]
# print(outputs[0][:, :, -1][-1])
# print (tmp_eval_loss.size ())
# cur_loss = np.abs(tmp_eval_loss.item())
# print(cur_loss)
# all_loss.append(cur_loss)
# repetition penalty from CTRL (https://arxiv.org/abs/1909.05858)
for i in range(num_samples):
for _ in set(generated[i].tolist()):
next_token_logits[i, _] /= repetition_penalty
filtered_logits = top_k_top_p_filtering(next_token_logits, top_k=top_k, top_p=top_p)
if temperature == 0: # greedy sampling:
next_token = torch.argmax(filtered_logits, dim=-1).unsqueeze(-1)
else:
next_token = torch.multinomial(F.softmax(filtered_logits, dim=-1), num_samples=1)
generated = torch.cat((generated, next_token), dim=1)
# print(next_token.item())
if next_token.item() == 29:
break
# print(all_loss)
# avg_loss = np.mean (np.array (all_loss))
# ppl = np.exp(avg_loss)
# print('test_loss (bpe): %.4f, test_perplexity: %.4f' % (avg_loss, ppl))
return generated
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_roc/lmft_lm_gpt2_rocmedium_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_cl/lmft_lm_gpt2_cl_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--model_type", default='gpt2', type=str, required=False,
help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
parser.add_argument("--model_name_or_path", default='/data/xieyuqiang/story_comprehension/checkpoints_ft_with_roc/lmft_lm_gpt2_rocmedium_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1', type=str, required=False,
help="Path to pre-trained model or shortcut name selected in the list: " + ", ".join(ALL_MODELS))
parser.add_argument("--source_text_path", type=str, default="/data/xieyuqiang/story_comprehension/data/roc/roc_val.csv")
parser.add_argument("--prompt", type=str, default=" ")
parser.add_argument("--padding_text", type=str, default="")
parser.add_argument("--xlm_lang", type=str, default="", help="Optional language when used with the XLM model.")
parser.add_argument("--length", type=int, default=30)
parser.add_argument("--batch", type=int, default=10)
parser.add_argument("--num_samples", type=int, default=1)
parser.add_argument("--temperature", type=float, default=0,
help="temperature of 0 implies greedy sampling")
parser.add_argument("--repetition_penalty", type=float, default=1.2,
help="primarily useful for CTRL model; in that case, use 1.2")
parser.add_argument("--top_k", type=int, default=1)
parser.add_argument("--top_p", type=float, default=0.9)
parser.add_argument("--no_cuda", action='store_true',
help="Avoid using CUDA when available")
parser.add_argument('--seed', type=int, default=42,
help="random seed for initialization")
parser.add_argument('--stop_token', type=str, default='<|endoftext|>',
help="Token at which text generation is stopped")
parser.add_argument ('--style', type=str, default='temporal',
help="The style for generating the pseudo wrong endings: temporal/causal")
args = parser.parse_args()
args.device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
args.n_gpu = torch.cuda.device_count()
set_seed(args)
args.model_type = args.model_type.lower()
model_class, tokenizer_class = MODEL_CLASSES[args.model_type]
tokenizer = tokenizer_class.from_pretrained(args.model_name_or_path)
model = model_class.from_pretrained(args.model_name_or_path)
model.to(args.device)
model.eval()
if args.length < 0 and model.config.max_position_embeddings > 0:
args.length = model.config.max_position_embeddings
elif 0 < model.config.max_position_embeddings < args.length:
args.length = model.config.max_position_embeddings # No generation bigger than model size
elif args.length < 0:
args.length = MAX_LENGTH # avoid infinite loop
logger.info(args)
if args.model_type in ["ctrl"]:
if args.temperature > 0.7:
logger.info('CTRL typically works better with lower temperatures (and lower top_k).')
while True:
xlm_lang = None
# XLM Language usage detailed in the issues #1414
if args.model_type in ["xlm"] and hasattr(tokenizer, 'lang2id') and hasattr(model.config, 'use_lang_emb') \
and model.config.use_lang_emb:
if args.xlm_lang:
language = args.xlm_lang
else:
language = None
while language not in tokenizer.lang2id.keys():
language = input("Using XLM. Select language in " + str(list(tokenizer.lang2id.keys())) + " >>> ")
xlm_lang = tokenizer.lang2id[language]
# XLM masked-language modeling (MLM) models need masked token (see details in sample_sequence)
is_xlm_mlm = args.model_type in ["xlm"] and 'mlm' in args.model_name_or_path
if is_xlm_mlm:
xlm_mask_token = tokenizer.mask_token_id
else:
xlm_mask_token = None
raw_text = args.prompt if args.prompt else input("Model prompt >>> ")
if args.model_type in ["transfo-xl", "xlnet"]:
# Models with memory likes to have a long prompt for short inputs.
raw_text = (args.padding_text if args.padding_text else PADDING_TEXT) + raw_text
context_tokens = tokenizer.encode(raw_text, add_special_tokens=False)
if args.model_type == "ctrl":
if not any(context_tokens[0] == x for x in tokenizer.control_codes.values()):
logger.info("WARNING! You are not starting your generation from a control code so you won't get good results")
with open (args.source_text_path, 'r', encoding='utf-8') as data_file, \
open (args.source_text_path + "_base_result.tsv", 'w', encoding='utf-8') as new_file, \
open (args.source_text_path + "_base_eval.tsv", 'w', encoding='utf-8') as eval_file:
import csv
reader = csv.reader (data_file)
next (reader)
all_data = []
for line in reader:
all_data.append (line)
print (all_data[0])
new_file.write ('context\tsource\ttarget\n')
from tqdm import tqdm
source_corpus = []
target_corpus = []
for raw_data in tqdm(all_data):
context = ' '.join(raw_data[2:6])
source = raw_data[6]
# import random
list = raw_data[2:6]
# random.shuffle(list)
target = ' '.join(list)
context_tokens = tokenizer.encode (target, add_special_tokens=False)
out = sample_sequence (
model=model,
context=context_tokens,
num_samples=args.num_samples,
length=args.length,
temperature=args.temperature,
top_k=args.top_k,
top_p=args.top_p,
repetition_penalty=args.repetition_penalty,
is_xlnet=bool (args.model_type == "xlnet"),
is_xlm_mlm=is_xlm_mlm,
xlm_mask_token=xlm_mask_token,
xlm_lang=xlm_lang,
device=args.device,
)
out = out[:, len (context_tokens):].tolist ()
for o in out:
# text = tokenizer.decode(o, cleanI_up_tokenization_spaces=True)
text = tokenizer.decode (o)
text = text[: text.find (args.stop_token) if args.stop_token else None]
target = text.replace ('<|endoftext|>', '')
source_corpus.append(source)
target_corpus.append(target)
new_file.write (context+"\t"+source+"\t"+target+"\n")
bleu_list = []
rouge_ = []
for source, target in zip (source_corpus, target_corpus):
bleu = sacrebleu.corpus_bleu (target, source)
bleu_list.append (bleu.precisions)
rouge = Rouge ()
for source, target in zip (source_corpus, target_corpus):
# rouge_l = compute_rouge_L(source, target)
rouge_x = rouge.get_scores (source, target)
rouge_1 = rouge_x[0]["rouge-1"]['f']
rouge_2 = rouge_x[0]["rouge-2"]['f']
rouge_l = rouge_x[0]["rouge-l"]['f']
rouge_.append ([rouge_1, rouge_2, rouge_l])
bleu_score = np.mean (bleu_list, axis=0)
rouge_score_ = np.mean (rouge_, axis=0)
print ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
print ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
print ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
print ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
print ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
print ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
eval_file.write ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
eval_file.write ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
eval_file.write ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
eval_file.write ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
eval_file.write ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
eval_file.write ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
if args.prompt:
break
# return target
if __name__ == '__main__':
main()
| [] |
2024-01-10 | IndexFziQ/CLSEG | src~run_generation_baseline_pt.py | #!/usr/bin/env python3
# coding=utf-8
# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team.
# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
""" Conditional text generation with the auto-regressive models of the library (GPT/GPT-2/CTRL/Transformer-XL/XLNet)
"""
from __future__ import absolute_import, division, print_function, unicode_literals
import argparse
import logging
from tqdm import trange
import torch
import torch.nn.functional as F
import numpy as np
from transformers import GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig
from transformers import GPT2LMHeadModel, GPT2Tokenizer
from transformers import OpenAIGPTLMHeadModel, OpenAIGPTTokenizer
from transformers import XLNetLMHeadModel, XLNetTokenizer
from transformers import TransfoXLLMHeadModel, TransfoXLTokenizer
from transformers import CTRLLMHeadModel, CTRLTokenizer
from transformers import XLMWithLMHeadModel, XLMTokenizer
# from tools.EA.get_concepts_from_behave import tokenization, lower_case
# from tools.EA.LIB.EVAL.bleu import compute_bleu
# from tools.EA.LIB.EVAL.rouge import compute_rouge_L
import sacrebleu
from rouge import Rouge
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.INFO)
logger = logging.getLogger(__name__)
MAX_LENGTH = int(10000) # Hardcoded max length to avoid infinite loop
ALL_MODELS = sum((tuple(conf.pretrained_config_archive_map.keys()) for conf in (GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig)), ())
MODEL_CLASSES = {
'gpt2': (GPT2LMHeadModel, GPT2Tokenizer),
'ctrl': (CTRLLMHeadModel, CTRLTokenizer),
'openai-gpt': (OpenAIGPTLMHeadModel, OpenAIGPTTokenizer),
'xlnet': (XLNetLMHeadModel, XLNetTokenizer),
'transfo-xl': (TransfoXLLMHeadModel, TransfoXLTokenizer),
'xlm': (XLMWithLMHeadModel, XLMTokenizer),
}
# Padding text to help Transformer-XL and XLNet with short prompts as proposed by Aman Rusia
# in https://github.com/rusiaaman/XLNet-gen#methodology
# and https://medium.com/@amanrusia/xlnet-speaks-comparison-to-gpt-2-ea1a4e9ba39e
# PADDING_TEXT = """ In 1991, the remains of Russian Tsar Nicholas II and his family
# (except for Alexei and Maria) are discovered.
# The voice of Nicholas's young son, Tsarevich Alexei Nikolaevich, narrates the
# remainder of the story. 1883 Western Siberia,
# a young Grigori Rasputin is asked by his father and a group of men to perform magic.
# Rasputin has a vision and denounces one of the men as a horse thief. Although his
# father initially slaps him for making such an accusation, Rasputin watches as the
# man is chased outside and beaten. Twenty years later, Rasputin sees a vision of
# the Virgin Mary, prompting him to become a priest. Rasputin quickly becomes famous,
# with people, even a bishop, begging for his blessing. <eod> </s> <eos>"""
def set_seed(args):
np.random.seed(args.seed)
torch.manual_seed(args.seed)
if args.n_gpu > 0:
torch.cuda.manual_seed_all(args.seed)
def top_k_top_p_filtering(logits, top_k=0, top_p=0.0, filter_value=-float('Inf')):
""" Filter a distribution of logits using top-k and/or nucleus (top-p) filtering
Args:
logits: logits distribution shape (batch size x vocabulary size)
top_k > 0: keep only top k tokens with highest probability (top-k filtering).
top_p > 0.0: keep the top tokens with cumulative probability >= top_p (nucleus filtering).
Nucleus filtering is described in Holtzman et al. (http://arxiv.org/abs/1904.09751)
From: https://gist.github.com/thomwolf/1a5a29f6962089e871b94cbd09daf317
"""
top_k = min(top_k, logits.size(-1)) # Safety check
if top_k > 0:
# Remove all tokens with a probability less than the last token of the top-k
indices_to_remove = logits < torch.topk(logits, top_k)[0][..., -1, None]
logits[indices_to_remove] = filter_value
if top_p > 0.0:
sorted_logits, sorted_indices = torch.sort(logits, descending=True)
cumulative_probs = torch.cumsum(F.softmax(sorted_logits, dim=-1), dim=-1)
# Remove tokens with cumulative probability above the threshold
sorted_indices_to_remove = cumulative_probs > top_p
# Shift the indices to the right to keep also the first token above the threshold
sorted_indices_to_remove[..., 1:] = sorted_indices_to_remove[..., :-1].clone()
sorted_indices_to_remove[..., 0] = 0
# scatter sorted tensors to original indexing
indices_to_remove = sorted_indices_to_remove.scatter(dim=1, index=sorted_indices, src=sorted_indices_to_remove)
logits[indices_to_remove] = filter_value
return logits
def sample_sequence(model, length, context, num_samples=1, temperature=1, top_k=0, top_p=0.0, repetition_penalty=1.0,
is_xlnet=False, is_xlm_mlm=False, xlm_mask_token=None, xlm_lang=None, device='cpu'):
context = torch.tensor(context, dtype=torch.long, device=device)
context = context.unsqueeze(0).repeat(num_samples, 1)
generated = context
# all_loss = []
with torch.no_grad():
for _ in range(length):
inputs = {'input_ids': generated}
if is_xlnet:
# XLNet is a direct (predict same token, not next token) and bi-directional model by default
# => need one additional dummy token in the input (will be masked), attention mask and target mapping (see model docstring)
input_ids = torch.cat((generated, torch.zeros((1, 1), dtype=torch.long, device=device)), dim=1)
perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float, device=device)
perm_mask[:, :, -1] = 1.0 # Previous tokens don't see last token
target_mapping = torch.zeros((1, 1, input_ids.shape[1]), dtype=torch.float, device=device)
target_mapping[0, 0, -1] = 1.0 # predict last token
inputs = {'input_ids': input_ids, 'perm_mask': perm_mask, 'target_mapping': target_mapping}
if is_xlm_mlm and xlm_mask_token:
# XLM MLM models are direct models (predict same token, not next token)
# => need one additional dummy token in the input (will be masked and guessed)
input_ids = torch.cat((generated, torch.full((1, 1), xlm_mask_token, dtype=torch.long, device=device)), dim=1)
inputs = {'input_ids': input_ids}
if xlm_lang is not None:
inputs["langs"] = torch.tensor([xlm_lang] * inputs["input_ids"].shape[1], device=device).view(1, -1)
outputs = model(**inputs) # Note: we could also use 'past' with GPT-2/Transfo-XL/XLNet/CTRL (cached hidden-states)
next_token_logits = outputs[0][:, -1, :] / (temperature if temperature > 0 else 1.)
# print(next_token_logits.size())
# tmp_eval_loss = outputs[0][:, :, -1][-1][-1]
# print(outputs[0][:, :, -1][-1])
# print (tmp_eval_loss.size ())
# cur_loss = np.abs(tmp_eval_loss.item())
# print(cur_loss)
# all_loss.append(cur_loss)
# repetition penalty from CTRL (https://arxiv.org/abs/1909.05858)
for i in range(num_samples):
for _ in set(generated[i].tolist()):
next_token_logits[i, _] /= repetition_penalty
filtered_logits = top_k_top_p_filtering(next_token_logits, top_k=top_k, top_p=top_p)
if temperature == 0: # greedy sampling:
next_token = torch.argmax(filtered_logits, dim=-1).unsqueeze(-1)
else:
next_token = torch.multinomial(F.softmax(filtered_logits, dim=-1), num_samples=1)
generated = torch.cat((generated, next_token), dim=1)
# print(next_token.item())
if next_token.item() == 29:
break
# print(all_loss)
# avg_loss = np.mean (np.array (all_loss))
# ppl = np.exp(avg_loss)
# print('test_loss (bpe): %.4f, test_perplexity: %.4f' % (avg_loss, ppl))
return generated
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_roc/lmft_lm_gpt2_rocmedium_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_cl/lmft_lm_gpt2_cl_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--model_type", default='gpt2', type=str, required=False,
help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
parser.add_argument("--model_name_or_path", default='/data/pretrained_models/pytorch-gpt2-medium', type=str, required=False,
help="Path to pre-trained model or shortcut name selected in the list: " + ", ".join(ALL_MODELS))
parser.add_argument("--source_text_path", type=str, default="/data/xieyuqiang/story_comprehension/data/roc/roc_val.csv")
parser.add_argument("--prompt", type=str, default=" ")
parser.add_argument("--padding_text", type=str, default="")
parser.add_argument("--xlm_lang", type=str, default="", help="Optional language when used with the XLM model.")
parser.add_argument("--length", type=int, default=30)
parser.add_argument("--batch", type=int, default=10)
parser.add_argument("--num_samples", type=int, default=1)
parser.add_argument("--temperature", type=float, default=0,
help="temperature of 0 implies greedy sampling")
parser.add_argument("--repetition_penalty", type=float, default=1.2,
help="primarily useful for CTRL model; in that case, use 1.2")
parser.add_argument("--top_k", type=int, default=1)
parser.add_argument("--top_p", type=float, default=0.9)
parser.add_argument("--no_cuda", action='store_true',
help="Avoid using CUDA when available")
parser.add_argument('--seed', type=int, default=42,
help="random seed for initialization")
parser.add_argument('--stop_token', type=str, default='<|endoftext|>',
help="Token at which text generation is stopped")
parser.add_argument ('--style', type=str, default='temporal',
help="The style for generating the pseudo wrong endings: temporal/causal")
args = parser.parse_args()
args.device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
args.n_gpu = torch.cuda.device_count()
set_seed(args)
args.model_type = args.model_type.lower()
model_class, tokenizer_class = MODEL_CLASSES[args.model_type]
tokenizer = tokenizer_class.from_pretrained(args.model_name_or_path)
model = model_class.from_pretrained(args.model_name_or_path)
model.to(args.device)
model.eval()
if args.length < 0 and model.config.max_position_embeddings > 0:
args.length = model.config.max_position_embeddings
elif 0 < model.config.max_position_embeddings < args.length:
args.length = model.config.max_position_embeddings # No generation bigger than model size
elif args.length < 0:
args.length = MAX_LENGTH # avoid infinite loop
logger.info(args)
if args.model_type in ["ctrl"]:
if args.temperature > 0.7:
logger.info('CTRL typically works better with lower temperatures (and lower top_k).')
while True:
xlm_lang = None
# XLM Language usage detailed in the issues #1414
if args.model_type in ["xlm"] and hasattr(tokenizer, 'lang2id') and hasattr(model.config, 'use_lang_emb') \
and model.config.use_lang_emb:
if args.xlm_lang:
language = args.xlm_lang
else:
language = None
while language not in tokenizer.lang2id.keys():
language = input("Using XLM. Select language in " + str(list(tokenizer.lang2id.keys())) + " >>> ")
xlm_lang = tokenizer.lang2id[language]
# XLM masked-language modeling (MLM) models need masked token (see details in sample_sequence)
is_xlm_mlm = args.model_type in ["xlm"] and 'mlm' in args.model_name_or_path
if is_xlm_mlm:
xlm_mask_token = tokenizer.mask_token_id
else:
xlm_mask_token = None
raw_text = args.prompt if args.prompt else input("Model prompt >>> ")
if args.model_type in ["transfo-xl", "xlnet"]:
# Models with memory likes to have a long prompt for short inputs.
raw_text = (args.padding_text if args.padding_text else PADDING_TEXT) + raw_text
context_tokens = tokenizer.encode(raw_text, add_special_tokens=False)
if args.model_type == "ctrl":
if not any(context_tokens[0] == x for x in tokenizer.control_codes.values()):
logger.info("WARNING! You are not starting your generation from a control code so you won't get good results")
with open (args.source_text_path, 'r', encoding='utf-8') as data_file, \
open (args.source_text_path + "_pt_result.tsv", 'w', encoding='utf-8') as new_file, \
open (args.source_text_path + "_pt_eval.tsv", 'w', encoding='utf-8') as eval_file:
import csv
reader = csv.reader (data_file)
next (reader)
all_data = []
for line in reader:
all_data.append (line)
print (all_data[0])
new_file.write ('context\tsource\ttarget\n')
from tqdm import tqdm
source_corpus = []
target_corpus = []
for raw_data in tqdm(all_data):
context = ' '.join(raw_data[2:6])
source = raw_data[6]
# import random
list = raw_data[2:6]
# random.shuffle(list)
target = ' '.join(list)
context_tokens = tokenizer.encode (target, add_special_tokens=False)
out = sample_sequence (
model=model,
context=context_tokens,
num_samples=args.num_samples,
length=args.length,
temperature=args.temperature,
top_k=args.top_k,
top_p=args.top_p,
repetition_penalty=args.repetition_penalty,
is_xlnet=bool (args.model_type == "xlnet"),
is_xlm_mlm=is_xlm_mlm,
xlm_mask_token=xlm_mask_token,
xlm_lang=xlm_lang,
device=args.device,
)
out = out[:, len (context_tokens):].tolist ()
for o in out:
# text = tokenizer.decode(o, cleanI_up_tokenization_spaces=True)
text = tokenizer.decode (o)
text = text[: text.find (args.stop_token) if args.stop_token else None]
target = text.replace ('<|endoftext|>', '')
source_corpus.append(source)
target_corpus.append(target)
new_file.write (context+"\t"+source+"\t"+target+"\n")
bleu_list = []
rouge_ = []
for source, target in zip (source_corpus, target_corpus):
bleu = sacrebleu.corpus_bleu (target, source)
bleu_list.append (bleu.precisions)
rouge = Rouge ()
for source, target in zip (source_corpus, target_corpus):
# rouge_l = compute_rouge_L(source, target)
rouge_x = rouge.get_scores (source, target)
rouge_1 = rouge_x[0]["rouge-1"]['f']
rouge_2 = rouge_x[0]["rouge-2"]['f']
rouge_l = rouge_x[0]["rouge-l"]['f']
rouge_.append ([rouge_1, rouge_2, rouge_l])
bleu_score = np.mean (bleu_list, axis=0)
rouge_score_ = np.mean (rouge_, axis=0)
print ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
print ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
print ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
print ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
print ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
print ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
eval_file.write ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
eval_file.write ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
eval_file.write ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
eval_file.write ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
eval_file.write ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
eval_file.write ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
if args.prompt:
break
# return target
if __name__ == '__main__':
main()
| [] |
2024-01-10 | IndexFziQ/CLSEG | src~run_generation_sample_cfg.py | #!/usr/bin/env python3
# coding=utf-8
# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team.
# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
""" Conditional text generation with the auto-regressive models of the library (GPT/GPT-2/CTRL/Transformer-XL/XLNet)
"""
from __future__ import absolute_import, division, print_function, unicode_literals
import argparse
import logging
from tqdm import trange
import torch
import torch.nn.functional as F
import numpy as np
from transformers import GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig
from transformers import GPT2LMHeadModel, GPT2Tokenizer
from transformers import OpenAIGPTLMHeadModel, OpenAIGPTTokenizer
from transformers import XLNetLMHeadModel, XLNetTokenizer
from transformers import TransfoXLLMHeadModel, TransfoXLTokenizer
from transformers import CTRLLMHeadModel, CTRLTokenizer
from transformers import XLMWithLMHeadModel, XLMTokenizer
# from tools.EA.get_concepts_from_behave import tokenization, lower_case
# from tools.EA.LIB.EVAL.bleu import compute_bleu
# from tools.EA.LIB.EVAL.rouge import compute_rouge_L
import sacrebleu
from rouge import Rouge
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.INFO)
logger = logging.getLogger(__name__)
MAX_LENGTH = int(10000) # Hardcoded max length to avoid infinite loop
ALL_MODELS = sum((tuple(conf.pretrained_config_archive_map.keys()) for conf in (GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig)), ())
MODEL_CLASSES = {
'gpt2': (GPT2LMHeadModel, GPT2Tokenizer),
'ctrl': (CTRLLMHeadModel, CTRLTokenizer),
'openai-gpt': (OpenAIGPTLMHeadModel, OpenAIGPTTokenizer),
'xlnet': (XLNetLMHeadModel, XLNetTokenizer),
'transfo-xl': (TransfoXLLMHeadModel, TransfoXLTokenizer),
'xlm': (XLMWithLMHeadModel, XLMTokenizer),
}
# Padding text to help Transformer-XL and XLNet with short prompts as proposed by Aman Rusia
# in https://github.com/rusiaaman/XLNet-gen#methodology
# and https://medium.com/@amanrusia/xlnet-speaks-comparison-to-gpt-2-ea1a4e9ba39e
# PADDING_TEXT = """ In 1991, the remains of Russian Tsar Nicholas II and his family
# (except for Alexei and Maria) are discovered.
# The voice of Nicholas's young son, Tsarevich Alexei Nikolaevich, narrates the
# remainder of the story. 1883 Western Siberia,
# a young Grigori Rasputin is asked by his father and a group of men to perform magic.
# Rasputin has a vision and denounces one of the men as a horse thief. Although his
# father initially slaps him for making such an accusation, Rasputin watches as the
# man is chased outside and beaten. Twenty years later, Rasputin sees a vision of
# the Virgin Mary, prompting him to become a priest. Rasputin quickly becomes famous,
# with people, even a bishop, begging for his blessing. <eod> </s> <eos>"""
def set_seed(args):
np.random.seed(args.seed)
torch.manual_seed(args.seed)
if args.n_gpu > 0:
torch.cuda.manual_seed_all(args.seed)
def top_k_top_p_filtering(logits, top_k=0, top_p=0.0, filter_value=-float('Inf')):
""" Filter a distribution of logits using top-k and/or nucleus (top-p) filtering
Args:
logits: logits distribution shape (batch size x vocabulary size)
top_k > 0: keep only top k tokens with highest probability (top-k filtering).
top_p > 0.0: keep the top tokens with cumulative probability >= top_p (nucleus filtering).
Nucleus filtering is described in Holtzman et al. (http://arxiv.org/abs/1904.09751)
From: https://gist.github.com/thomwolf/1a5a29f6962089e871b94cbd09daf317
"""
top_k = min(top_k, logits.size(-1)) # Safety check
if top_k > 0:
# Remove all tokens with a probability less than the last token of the top-k
indices_to_remove = logits < torch.topk(logits, top_k)[0][..., -1, None]
logits[indices_to_remove] = filter_value
if top_p > 0.0:
sorted_logits, sorted_indices = torch.sort(logits, descending=True)
cumulative_probs = torch.cumsum(F.softmax(sorted_logits, dim=-1), dim=-1)
# Remove tokens with cumulative probability above the threshold
sorted_indices_to_remove = cumulative_probs > top_p
# Shift the indices to the right to keep also the first token above the threshold
sorted_indices_to_remove[..., 1:] = sorted_indices_to_remove[..., :-1].clone()
sorted_indices_to_remove[..., 0] = 0
# scatter sorted tensors to original indexing
indices_to_remove = sorted_indices_to_remove.scatter(dim=1, index=sorted_indices, src=sorted_indices_to_remove)
logits[indices_to_remove] = filter_value
return logits
def sample_sequence(model, length, context, num_samples=1, temperature=1, top_k=0, top_p=0.0, repetition_penalty=1.0,
is_xlnet=False, is_xlm_mlm=False, xlm_mask_token=None, xlm_lang=None, device='cpu'):
context = torch.tensor(context, dtype=torch.long, device=device)
context = context.unsqueeze(0).repeat(num_samples, 1)
generated = context
# all_loss = []
with torch.no_grad():
for _ in range(length):
inputs = {'input_ids': generated}
if is_xlnet:
# XLNet is a direct (predict same token, not next token) and bi-directional model by default
# => need one additional dummy token in the input (will be masked), attention mask and target mapping (see model docstring)
input_ids = torch.cat((generated, torch.zeros((1, 1), dtype=torch.long, device=device)), dim=1)
perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float, device=device)
perm_mask[:, :, -1] = 1.0 # Previous tokens don't see last token
target_mapping = torch.zeros((1, 1, input_ids.shape[1]), dtype=torch.float, device=device)
target_mapping[0, 0, -1] = 1.0 # predict last token
inputs = {'input_ids': input_ids, 'perm_mask': perm_mask, 'target_mapping': target_mapping}
if is_xlm_mlm and xlm_mask_token:
# XLM MLM models are direct models (predict same token, not next token)
# => need one additional dummy token in the input (will be masked and guessed)
input_ids = torch.cat((generated, torch.full((1, 1), xlm_mask_token, dtype=torch.long, device=device)), dim=1)
inputs = {'input_ids': input_ids}
if xlm_lang is not None:
inputs["langs"] = torch.tensor([xlm_lang] * inputs["input_ids"].shape[1], device=device).view(1, -1)
outputs = model(**inputs) # Note: we could also use 'past' with GPT-2/Transfo-XL/XLNet/CTRL (cached hidden-states)
next_token_logits = outputs[0][:, -1, :] / (temperature if temperature > 0 else 1.)
# print(next_token_logits.size())
# tmp_eval_loss = outputs[0][:, :, -1][-1][-1]
# print(outputs[0][:, :, -1][-1])
# print (tmp_eval_loss.size ())
# cur_loss = np.abs(tmp_eval_loss.item())
# print(cur_loss)
# all_loss.append(cur_loss)
# repetition penalty from CTRL (https://arxiv.org/abs/1909.05858)
for i in range(num_samples):
for _ in set(generated[i].tolist()):
next_token_logits[i, _] /= repetition_penalty
filtered_logits = top_k_top_p_filtering(next_token_logits, top_k=top_k, top_p=top_p)
if temperature == 0: # greedy sampling:
next_token = torch.argmax(filtered_logits, dim=-1).unsqueeze(-1)
else:
next_token = torch.multinomial(F.softmax(filtered_logits, dim=-1), num_samples=1)
generated = torch.cat((generated, next_token), dim=1)
# print(next_token.item())
if next_token.item() == 29:
break
# print(all_loss)
# avg_loss = np.mean (np.array (all_loss))
# ppl = np.exp(avg_loss)
# print('test_loss (bpe): %.4f, test_perplexity: %.4f' % (avg_loss, ppl))
return generated
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--model_type", default='gpt2', type=str, required=False,
help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
parser.add_argument("--model_name_or_path", default='/data/xieyuqiang/story_comprehension/checkpoints_ft_with_roc/lmft_lm_gpt2_roc_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1', type=str, required=False,
help="Path to pre-trained model or shortcut name selected in the list: " + ", ".join(ALL_MODELS))
parser.add_argument("--source_text_path", type=str, default="/data/xieyuqiang/story_comprehension/data/roc/roc_train.csv")
parser.add_argument("--prompt", type=str, default=" ")
parser.add_argument("--padding_text", type=str, default="")
parser.add_argument("--xlm_lang", type=str, default="", help="Optional language when used with the XLM model.")
parser.add_argument("--length", type=int, default=60)
parser.add_argument("--batch", type=int, default=2)
parser.add_argument("--num_samples", type=int, default=1)
parser.add_argument("--temperature", type=float, default=0,
help="temperature of 0 implies greedy sampling")
parser.add_argument("--repetition_penalty", type=float, default=1.2,
help="primarily useful for CTRL model; in that case, use 1.2")
parser.add_argument("--top_k", type=int, default=1)
parser.add_argument("--top_p", type=float, default=0.9)
parser.add_argument("--no_cuda", action='store_true',
help="Avoid using CUDA when available")
parser.add_argument('--seed', type=int, default=42,
help="random seed for initialization")
parser.add_argument('--stop_token', type=str, default='<|endoftext|>',
help="Token at which text generation is stopped")
parser.add_argument ('--style', type=str, default='temporal',
help="The style for generating the pseudo wrong endings: temporal/causal")
args = parser.parse_args()
args.device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
args.n_gpu = torch.cuda.device_count()
set_seed(args)
if args.style == 'temporal':
args.source_text_path = '/data/xieyuqiang/story_comprehension/data/roc/roc_train.csv'
if args.style == 'causal':
args.source_text_path = '/data/xieyuqiang/story_comprehension/data/roc/roc_train.csv_causal.tsv'
args.model_type = args.model_type.lower()
model_class, tokenizer_class = MODEL_CLASSES[args.model_type]
tokenizer = tokenizer_class.from_pretrained(args.model_name_or_path)
model = model_class.from_pretrained(args.model_name_or_path)
model.to(args.device)
model.eval()
if args.length < 0 and model.config.max_position_embeddings > 0:
args.length = model.config.max_position_embeddings
elif 0 < model.config.max_position_embeddings < args.length:
args.length = model.config.max_position_embeddings # No generation bigger than model size
elif args.length < 0:
args.length = MAX_LENGTH # avoid infinite loop
logger.info(args)
if args.model_type in ["ctrl"]:
if args.temperature > 0.7:
logger.info('CTRL typically works better with lower temperatures (and lower top_k).')
while True:
xlm_lang = None
# XLM Language usage detailed in the issues #1414
if args.model_type in ["xlm"] and hasattr(tokenizer, 'lang2id') and hasattr(model.config, 'use_lang_emb') \
and model.config.use_lang_emb:
if args.xlm_lang:
language = args.xlm_lang
else:
language = None
while language not in tokenizer.lang2id.keys():
language = input("Using XLM. Select language in " + str(list(tokenizer.lang2id.keys())) + " >>> ")
xlm_lang = tokenizer.lang2id[language]
# XLM masked-language modeling (MLM) models need masked token (see details in sample_sequence)
is_xlm_mlm = args.model_type in ["xlm"] and 'mlm' in args.model_name_or_path
if is_xlm_mlm:
xlm_mask_token = tokenizer.mask_token_id
else:
xlm_mask_token = None
raw_text = args.prompt if args.prompt else input("Model prompt >>> ")
if args.model_type in ["transfo-xl", "xlnet"]:
# Models with memory likes to have a long prompt for short inputs.
raw_text = (args.padding_text if args.padding_text else PADDING_TEXT) + raw_text
context_tokens = tokenizer.encode(raw_text, add_special_tokens=False)
if args.model_type == "ctrl":
if not any(context_tokens[0] == x for x in tokenizer.control_codes.values()):
logger.info("WARNING! You are not starting your generation from a control code so you won't get good results")
with open (args.source_text_path, 'r', encoding='utf-8') as data_file, \
open (args.source_text_path + "_generated.tsv", 'w', encoding='utf-8') as new_file, \
open (args.source_text_path + "_eval.tsv", 'w', encoding='utf-8') as eval_file:
import csv
reader = csv.reader (data_file)
next (reader)
all_data = []
for line in reader:
all_data.append (line)
print (all_data[0])
new_file.write ('context\tsource\ttarget\n')
from tqdm import tqdm
source_corpus = []
target_corpus = []
for raw_data in tqdm(all_data):
context = ' '.join(raw_data[2:6])
source = raw_data[6]
target = ''
if args.style == 'temporal':
import random
list = raw_data[2:6]
random.shuffle(list)
target = ' '.join(list)
elif args.style == 'causal':
target = ' '.join(raw_data[2:6])
else:
logger.info ("WARNING! Target is UNK.")
context_tokens = tokenizer.encode (target, add_special_tokens=False)
out = sample_sequence (
model=model,
context=context_tokens,
num_samples=args.num_samples,
length=args.length,
temperature=args.temperature,
top_k=args.top_k,
top_p=args.top_p,
repetition_penalty=args.repetition_penalty,
is_xlnet=bool (args.model_type == "xlnet"),
is_xlm_mlm=is_xlm_mlm,
xlm_mask_token=xlm_mask_token,
xlm_lang=xlm_lang,
device=args.device,
)
out = out[:, len (context_tokens):].tolist ()
for o in out:
# text = tokenizer.decode(o, cleanI_up_tokenization_spaces=True)
text = tokenizer.decode (o)
text = text[: text.find (args.stop_token) if args.stop_token else None]
target = text.replace ('<|endoftext|>', '')
source_corpus.append(source)
target_corpus.append(target)
new_file.write (context+"\t"+source+"\t"+target+"\n")
bleu_list = []
rouge_ = []
for source, target in zip (source_corpus, target_corpus):
bleu = sacrebleu.corpus_bleu (target, source)
bleu_list.append (bleu.precisions)
rouge = Rouge ()
for source, target in zip (source_corpus, target_corpus):
# rouge_l = compute_rouge_L(source, target)
rouge_x = rouge.get_scores (source, target)
rouge_1 = rouge_x[0]["rouge-1"]['f']
rouge_2 = rouge_x[0]["rouge-2"]['f']
rouge_l = rouge_x[0]["rouge-l"]['f']
rouge_.append ([rouge_1, rouge_2, rouge_l])
bleu_score = np.mean (bleu_list, axis=0)
rouge_score_ = np.mean (rouge_, axis=0)
print ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
print ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
print ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
print ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
print ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
print ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
eval_file.write ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
eval_file.write ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
eval_file.write ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
eval_file.write ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
eval_file.write ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
eval_file.write ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
if args.prompt:
break
# return target
if __name__ == '__main__':
main()
| [] |
2024-01-10 | IndexFziQ/CLSEG | src~run_generation_sample_sct.py | #!/usr/bin/env python3
# coding=utf-8
# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team.
# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
""" Conditional text generation with the auto-regressive models of the library (GPT/GPT-2/CTRL/Transformer-XL/XLNet)
"""
from __future__ import absolute_import, division, print_function, unicode_literals
import argparse
import logging
import torch
import torch.nn.functional as F
import numpy as np
from transformers import GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig
from transformers import GPT2LMHeadModel, GPT2Tokenizer
from transformers import OpenAIGPTLMHeadModel, OpenAIGPTTokenizer
from transformers import XLNetLMHeadModel, XLNetTokenizer
from transformers import TransfoXLLMHeadModel, TransfoXLTokenizer
from transformers import CTRLLMHeadModel, CTRLTokenizer
from transformers import XLMWithLMHeadModel, XLMTokenizer
import sacrebleu
from rouge import Rouge
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.INFO)
logger = logging.getLogger(__name__)
MAX_LENGTH = int(10000) # Hardcoded max length to avoid infinite loop
ALL_MODELS = sum((tuple(conf.pretrained_config_archive_map.keys()) for conf in (GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig)), ())
MODEL_CLASSES = {
'gpt2': (GPT2LMHeadModel, GPT2Tokenizer),
'ctrl': (CTRLLMHeadModel, CTRLTokenizer),
'openai-gpt': (OpenAIGPTLMHeadModel, OpenAIGPTTokenizer),
'xlnet': (XLNetLMHeadModel, XLNetTokenizer),
'transfo-xl': (TransfoXLLMHeadModel, TransfoXLTokenizer),
'xlm': (XLMWithLMHeadModel, XLMTokenizer),
}
# Padding text to help Transformer-XL and XLNet with short prompts as proposed by Aman Rusia
# in https://github.com/rusiaaman/XLNet-gen#methodology
# and https://medium.com/@amanrusia/xlnet-speaks-comparison-to-gpt-2-ea1a4e9ba39e
# PADDING_TEXT = """ In 1991, the remains of Russian Tsar Nicholas II and his family
# (except for Alexei and Maria) are discovered.
# The voice of Nicholas's young son, Tsarevich Alexei Nikolaevich, narrates the
# remainder of the story. 1883 Western Siberia,
# a young Grigori Rasputin is asked by his father and a group of men to perform magic.
# Rasputin has a vision and denounces one of the men as a horse thief. Although his
# father initially slaps him for making such an accusation, Rasputin watches as the
# man is chased outside and beaten. Twenty years later, Rasputin sees a vision of
# the Virgin Mary, prompting him to become a priest. Rasputin quickly becomes famous,
# with people, even a bishop, begging for his blessing. <eod> </s> <eos>"""
def set_seed(args):
np.random.seed(args.seed)
torch.manual_seed(args.seed)
if args.n_gpu > 0:
torch.cuda.manual_seed_all(args.seed)
def top_k_top_p_filtering(logits, top_k=0, top_p=0.0, filter_value=-float('Inf')):
""" Filter a distribution of logits using top-k and/or nucleus (top-p) filtering
Args:
logits: logits distribution shape (batch size x vocabulary size)
top_k > 0: keep only top k tokens with highest probability (top-k filtering).
top_p > 0.0: keep the top tokens with cumulative probability >= top_p (nucleus filtering).
Nucleus filtering is described in Holtzman et al. (http://arxiv.org/abs/1904.09751)
From: https://gist.github.com/thomwolf/1a5a29f6962089e871b94cbd09daf317
"""
top_k = min(top_k, logits.size(-1)) # Safety check
if top_k > 0:
# Remove all tokens with a probability less than the last token of the top-k
indices_to_remove = logits < torch.topk(logits, top_k)[0][..., -1, None]
logits[indices_to_remove] = filter_value
if top_p > 0.0:
sorted_logits, sorted_indices = torch.sort(logits, descending=True)
cumulative_probs = torch.cumsum(F.softmax(sorted_logits, dim=-1), dim=-1)
# Remove tokens with cumulative probability above the threshold
sorted_indices_to_remove = cumulative_probs > top_p
# Shift the indices to the right to keep also the first token above the threshold
sorted_indices_to_remove[..., 1:] = sorted_indices_to_remove[..., :-1].clone()
sorted_indices_to_remove[..., 0] = 0
# scatter sorted tensors to original indexing
indices_to_remove = sorted_indices_to_remove.scatter(dim=1, index=sorted_indices, src=sorted_indices_to_remove)
logits[indices_to_remove] = filter_value
return logits
def sample_sequence(model, length, context, num_samples=1, temperature=1, top_k=0, top_p=0.0, repetition_penalty=1.0,
is_xlnet=False, is_xlm_mlm=False, xlm_mask_token=None, xlm_lang=None, device='cpu'):
context = torch.tensor(context, dtype=torch.long, device=device)
context = context.unsqueeze(0).repeat(num_samples, 1)
generated = context
with torch.no_grad():
for _ in range(length):
inputs = {'input_ids': generated}
if is_xlnet:
# XLNet is a direct (predict same token, not next token) and bi-directional model by default
# => need one additional dummy token in the input (will be masked), attention mask and target mapping (see model docstring)
input_ids = torch.cat((generated, torch.zeros((1, 1), dtype=torch.long, device=device)), dim=1)
perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float, device=device)
perm_mask[:, :, -1] = 1.0 # Previous tokens don't see last token
target_mapping = torch.zeros((1, 1, input_ids.shape[1]), dtype=torch.float, device=device)
target_mapping[0, 0, -1] = 1.0 # predict last token
inputs = {'input_ids': input_ids, 'perm_mask': perm_mask, 'target_mapping': target_mapping}
if is_xlm_mlm and xlm_mask_token:
# XLM MLM models are direct models (predict same token, not next token)
# => need one additional dummy token in the input (will be masked and guessed)
input_ids = torch.cat((generated, torch.full((1, 1), xlm_mask_token, dtype=torch.long, device=device)), dim=1)
inputs = {'input_ids': input_ids}
if xlm_lang is not None:
inputs["langs"] = torch.tensor([xlm_lang] * inputs["input_ids"].shape[1], device=device).view(1, -1)
outputs = model(**inputs) # Note: we could also use 'past' with GPT-2/Transfo-XL/XLNet/CTRL (cached hidden-states)
next_token_logits = outputs[0][:, -1, :] / (temperature if temperature > 0 else 1.)
# repetition penalty from CTRL (https://arxiv.org/abs/1909.05858)
for i in range(num_samples):
for _ in set(generated[i].tolist()):
next_token_logits[i, _] /= repetition_penalty
filtered_logits = top_k_top_p_filtering(next_token_logits, top_k=top_k, top_p=top_p)
if temperature == 0: # greedy sampling:
next_token = torch.argmax(filtered_logits, dim=-1).unsqueeze(-1)
else:
next_token = torch.multinomial(F.softmax(filtered_logits, dim=-1), num_samples=1)
generated = torch.cat((generated, next_token), dim=1)
if next_token.item() == 29:
break
return generated
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--model_type", default='gpt2', type=str, required=False,
help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
parser.add_argument("--model_name_or_path", default='/data/xieyuqiang/story_comprehension/checkpoints_ft_with_sct/lmft_lm_gpt2_wrong_v2_gn1_bp1_gc32_lr1_l100_e5_seed42_cgn1', type=str, required=False,
help="Path to pre-trained model or shortcut name selected in the list: " + ", ".join(ALL_MODELS))
parser.add_argument("--source_text_path", type=str, default="/data/xieyuqiang/story_comprehension/data/roc/roc_train.csv")
parser.add_argument("--prompt", type=str, default=" ")
parser.add_argument("--padding_text", type=str, default="")
parser.add_argument("--xlm_lang", type=str, default="", help="Optional language when used with the XLM model.")
parser.add_argument("--length", type=int, default=30)
parser.add_argument("--batch", type=int, default=5)
parser.add_argument("--num_samples", type=int, default=1)
parser.add_argument("--temperature", type=float, default=0,
help="temperature of 0 implies greedy sampling")
parser.add_argument("--repetition_penalty", type=float, default=1.2,
help="primarily useful for CTRL model; in that case, use 1.2")
parser.add_argument("--top_k", type=int, default=1)
parser.add_argument("--top_p", type=float, default=0.9)
parser.add_argument("--no_cuda", action='store_true',
help="Avoid using CUDA when available")
parser.add_argument('--seed', type=int, default=42,
help="random seed for initialization")
parser.add_argument('--stop_token', type=str, default='<|endoftext|>',
help="Token at which text generation is stopped")
parser.add_argument ('--style', type=str, default='temporal',
help="The style for generating the pseudo wrong endings: temporal/causal")
args = parser.parse_args()
args.device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
args.n_gpu = torch.cuda.device_count()
set_seed(args)
args.model_type = args.model_type.lower()
model_class, tokenizer_class = MODEL_CLASSES[args.model_type]
tokenizer = tokenizer_class.from_pretrained(args.model_name_or_path)
model = model_class.from_pretrained(args.model_name_or_path)
model.to(args.device)
model.eval()
if args.length < 0 and model.config.max_position_embeddings > 0:
args.length = model.config.max_position_embeddings
elif 0 < model.config.max_position_embeddings < args.length:
args.length = model.config.max_position_embeddings # No generation bigger than model size
elif args.length < 0:
args.length = MAX_LENGTH # avoid infinite loop
logger.info(args)
if args.model_type in ["ctrl"]:
if args.temperature > 0.7:
logger.info('CTRL typically works better with lower temperatures (and lower top_k).')
while True:
xlm_lang = None
# XLM Language usage detailed in the issues #1414
if args.model_type in ["xlm"] and hasattr(tokenizer, 'lang2id') and hasattr(model.config, 'use_lang_emb') \
and model.config.use_lang_emb:
if args.xlm_lang:
language = args.xlm_lang
else:
language = None
while language not in tokenizer.lang2id.keys():
language = input("Using XLM. Select language in " + str(list(tokenizer.lang2id.keys())) + " >>> ")
xlm_lang = tokenizer.lang2id[language]
# XLM masked-language modeling (MLM) models need masked token (see details in sample_sequence)
is_xlm_mlm = args.model_type in ["xlm"] and 'mlm' in args.model_name_or_path
if is_xlm_mlm:
xlm_mask_token = tokenizer.mask_token_id
else:
xlm_mask_token = None
raw_text = args.prompt if args.prompt else input("Model prompt >>> ")
if args.model_type in ["transfo-xl", "xlnet"]:
# Models with memory likes to have a long prompt for short inputs.
raw_text = (args.padding_text if args.padding_text else PADDING_TEXT) + raw_text
context_tokens = tokenizer.encode(raw_text, add_special_tokens=False)
if args.model_type == "ctrl":
if not any(context_tokens[0] == x for x in tokenizer.control_codes.values()):
logger.info("WARNING! You are not starting your generation from a control code so you won't get good results")
with open (args.source_text_path, 'r', encoding='utf-8') as data_file, \
open (args.source_text_path + "_sct_generated.tsv", 'w', encoding='utf-8') as new_file, \
open (args.source_text_path + "_sct_eval.tsv", 'w', encoding='utf-8') as eval_file:
import csv
import sys
csv.field_size_limit (sys.maxsize)
reader = csv.reader (data_file)
next (reader)
all_data = []
for line in reader:
all_data.append (line)
print (all_data[0])
new_file.write ('context\tsource\ttarget\n')
from tqdm import tqdm
source_corpus = []
target_corpus = []
for raw_data in tqdm(all_data):
context = ' '.join(raw_data[2:6])
source = raw_data[6]
target = context
context_tokens = tokenizer.encode (target, add_special_tokens=False)
out = sample_sequence (
model=model,
context=context_tokens,
num_samples=args.num_samples,
length=args.length,
temperature=args.temperature,
top_k=args.top_k,
top_p=args.top_p,
repetition_penalty=args.repetition_penalty,
is_xlnet=bool (args.model_type == "xlnet"),
is_xlm_mlm=is_xlm_mlm,
xlm_mask_token=xlm_mask_token,
xlm_lang=xlm_lang,
device=args.device,
)
out = out[:, len (context_tokens):].tolist ()
for o in out:
# text = tokenizer.decode(o, cleanI_up_tokenization_spaces=True)
text = tokenizer.decode (o)
text = text[: text.find (args.stop_token) if args.stop_token else None]
target = text.replace ('<|endoftext|>', '')
source_corpus.append(source)
target_corpus.append(target)
new_file.write (context+"\t"+source+"\t"+target+"\n")
bleu_list = []
rouge_ = []
for source, target in zip (source_corpus, target_corpus):
bleu = sacrebleu.corpus_bleu(target, source)
bleu_list.append(bleu.precisions)
rouge = Rouge ()
for source, target in zip(source_corpus, target_corpus):
# rouge_l = compute_rouge_L(source, target)
rouge_x = rouge.get_scores(source, target)
rouge_1 = rouge_x[0]["rouge-1"]['f']
rouge_2 = rouge_x[0]["rouge-2"]['f']
rouge_l = rouge_x[0]["rouge-l"]['f']
rouge_.append([rouge_1,rouge_2,rouge_l])
bleu_score = np.mean(bleu_list,axis=0)
rouge_score_ = np.mean(rouge_,axis=0)
print ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
print ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
print ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
print ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
print ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
print ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
eval_file.write("BLEU-1 score: " + str (bleu_score[0]) +"\n")
eval_file.write("BLEU-2 score: " + str (bleu_score[1]) + "\n")
eval_file.write("BLEU-4 score: " + str (bleu_score[3]) + "\n")
eval_file.write("Rouge-1 score: " + str (rouge_score_[0]*100) + "\n")
eval_file.write("Rouge-2 score: " + str (rouge_score_[1]*100) + "\n")
eval_file.write("Rouge-L score: " + str (rouge_score_[2]*100) + "\n")
if args.prompt:
break
# return target
if __name__ == '__main__':
main()
| [] |
2024-01-10 | IndexFziQ/CLSEG | src~run_generation_cl_is.py | #!/usr/bin/env python3
# coding=utf-8
# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team.
# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
""" Conditional text generation with the auto-regressive models of the library (GPT/GPT-2/CTRL/Transformer-XL/XLNet)
"""
from __future__ import absolute_import, division, print_function, unicode_literals
import argparse
import logging
from tqdm import trange
import torch
import torch.nn.functional as F
import numpy as np
from transformers import GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig
from transformers import GPT2LMHeadModel, GPT2Tokenizer
from transformers import OpenAIGPTLMHeadModel, OpenAIGPTTokenizer
from transformers import XLNetLMHeadModel, XLNetTokenizer
from transformers import TransfoXLLMHeadModel, TransfoXLTokenizer
from transformers import CTRLLMHeadModel, CTRLTokenizer
from transformers import XLMWithLMHeadModel, XLMTokenizer
# from tools.EA.get_concepts_from_behave import tokenization, lower_case
# from tools.EA.LIB.EVAL.bleu import compute_bleu
# from tools.EA.LIB.EVAL.rouge import compute_rouge_L
import sacrebleu
from rouge import Rouge
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.INFO)
logger = logging.getLogger(__name__)
MAX_LENGTH = int(10000) # Hardcoded max length to avoid infinite loop
ALL_MODELS = sum((tuple(conf.pretrained_config_archive_map.keys()) for conf in (GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig)), ())
MODEL_CLASSES = {
'gpt2': (GPT2LMHeadModel, GPT2Tokenizer),
'ctrl': (CTRLLMHeadModel, CTRLTokenizer),
'openai-gpt': (OpenAIGPTLMHeadModel, OpenAIGPTTokenizer),
'xlnet': (XLNetLMHeadModel, XLNetTokenizer),
'transfo-xl': (TransfoXLLMHeadModel, TransfoXLTokenizer),
'xlm': (XLMWithLMHeadModel, XLMTokenizer),
}
# Padding text to help Transformer-XL and XLNet with short prompts as proposed by Aman Rusia
# in https://github.com/rusiaaman/XLNet-gen#methodology
# and https://medium.com/@amanrusia/xlnet-speaks-comparison-to-gpt-2-ea1a4e9ba39e
# PADDING_TEXT = """ In 1991, the remains of Russian Tsar Nicholas II and his family
# (except for Alexei and Maria) are discovered.
# The voice of Nicholas's young son, Tsarevich Alexei Nikolaevich, narrates the
# remainder of the story. 1883 Western Siberia,
# a young Grigori Rasputin is asked by his father and a group of men to perform magic.
# Rasputin has a vision and denounces one of the men as a horse thief. Although his
# father initially slaps him for making such an accusation, Rasputin watches as the
# man is chased outside and beaten. Twenty years later, Rasputin sees a vision of
# the Virgin Mary, prompting him to become a priest. Rasputin quickly becomes famous,
# with people, even a bishop, begging for his blessing. <eod> </s> <eos>"""
def set_seed(args):
np.random.seed(args.seed)
torch.manual_seed(args.seed)
if args.n_gpu > 0:
torch.cuda.manual_seed_all(args.seed)
def top_k_top_p_filtering(logits, top_k=0, top_p=0.0, filter_value=-float('Inf')):
""" Filter a distribution of logits using top-k and/or nucleus (top-p) filtering
Args:
logits: logits distribution shape (batch size x vocabulary size)
top_k > 0: keep only top k tokens with highest probability (top-k filtering).
top_p > 0.0: keep the top tokens with cumulative probability >= top_p (nucleus filtering).
Nucleus filtering is described in Holtzman et al. (http://arxiv.org/abs/1904.09751)
From: https://gist.github.com/thomwolf/1a5a29f6962089e871b94cbd09daf317
"""
top_k = min(top_k, logits.size(-1)) # Safety check
if top_k > 0:
# Remove all tokens with a probability less than the last token of the top-k
indices_to_remove = logits < torch.topk(logits, top_k)[0][..., -1, None]
logits[indices_to_remove] = filter_value
if top_p > 0.0:
sorted_logits, sorted_indices = torch.sort(logits, descending=True)
cumulative_probs = torch.cumsum(F.softmax(sorted_logits, dim=-1), dim=-1)
# Remove tokens with cumulative probability above the threshold
sorted_indices_to_remove = cumulative_probs > top_p
# Shift the indices to the right to keep also the first token above the threshold
sorted_indices_to_remove[..., 1:] = sorted_indices_to_remove[..., :-1].clone()
sorted_indices_to_remove[..., 0] = 0
# scatter sorted tensors to original indexing
indices_to_remove = sorted_indices_to_remove.scatter(dim=1, index=sorted_indices, src=sorted_indices_to_remove)
logits[indices_to_remove] = filter_value
return logits
def sample_sequence(model, length, context, num_samples=1, temperature=1, top_k=0, top_p=0.0, repetition_penalty=1.0,
is_xlnet=False, is_xlm_mlm=False, xlm_mask_token=None, xlm_lang=None, device='cpu'):
context = torch.tensor(context, dtype=torch.long, device=device)
context = context.unsqueeze(0).repeat(num_samples, 1)
generated = context
# all_loss = []
with torch.no_grad():
for _ in range(length):
inputs = {'input_ids': generated}
if is_xlnet:
# XLNet is a direct (predict same token, not next token) and bi-directional model by default
# => need one additional dummy token in the input (will be masked), attention mask and target mapping (see model docstring)
input_ids = torch.cat((generated, torch.zeros((1, 1), dtype=torch.long, device=device)), dim=1)
perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float, device=device)
perm_mask[:, :, -1] = 1.0 # Previous tokens don't see last token
target_mapping = torch.zeros((1, 1, input_ids.shape[1]), dtype=torch.float, device=device)
target_mapping[0, 0, -1] = 1.0 # predict last token
inputs = {'input_ids': input_ids, 'perm_mask': perm_mask, 'target_mapping': target_mapping}
if is_xlm_mlm and xlm_mask_token:
# XLM MLM models are direct models (predict same token, not next token)
# => need one additional dummy token in the input (will be masked and guessed)
input_ids = torch.cat((generated, torch.full((1, 1), xlm_mask_token, dtype=torch.long, device=device)), dim=1)
inputs = {'input_ids': input_ids}
if xlm_lang is not None:
inputs["langs"] = torch.tensor([xlm_lang] * inputs["input_ids"].shape[1], device=device).view(1, -1)
outputs = model(**inputs) # Note: we could also use 'past' with GPT-2/Transfo-XL/XLNet/CTRL (cached hidden-states)
next_token_logits = outputs[0][:, -1, :] / (temperature if temperature > 0 else 1.)
# print(next_token_logits.size())
# tmp_eval_loss = outputs[0][:, :, -1][-1][-1]
# print(outputs[0][:, :, -1][-1])
# print (tmp_eval_loss.size ())
# cur_loss = np.abs(tmp_eval_loss.item())
# print(cur_loss)
# all_loss.append(cur_loss)
# repetition penalty from CTRL (https://arxiv.org/abs/1909.05858)
for i in range(num_samples):
for _ in set(generated[i].tolist()):
next_token_logits[i, _] /= repetition_penalty
filtered_logits = top_k_top_p_filtering(next_token_logits, top_k=top_k, top_p=top_p)
if temperature == 0: # greedy sampling:
next_token = torch.argmax(filtered_logits, dim=-1).unsqueeze(-1)
else:
next_token = torch.multinomial(F.softmax(filtered_logits, dim=-1), num_samples=1)
generated = torch.cat((generated, next_token), dim=1)
# print(next_token.item())
if next_token.item() == 29:
break
# print(all_loss)
# avg_loss = np.mean (np.array (all_loss))
# ppl = np.exp(avg_loss)
# print('test_loss (bpe): %.4f, test_perplexity: %.4f' % (avg_loss, ppl))
return generated
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_roc/lmft_lm_gpt2_rocmedium_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_cl/lmft_lm_gpt2_cl_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--model_type", default='gpt2', type=str, required=False,
help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
parser.add_argument("--model_name_or_path", default='/data/xieyuqiang/story_comprehension/checkpoints_ft_with_cl/lmft_lm_gpt2_clis_gn1_bp1_gc32_lr1_l128_e3_seed42_cgn1', type=str, required=False,
help="Path to pre-trained model or shortcut name selected in the list: " + ", ".join(ALL_MODELS))
parser.add_argument("--source_text_path", type=str, default="/data/xieyuqiang/story_comprehension/data/roc/roc_val.csv")
parser.add_argument("--prompt", type=str, default=" ")
parser.add_argument("--padding_text", type=str, default="")
parser.add_argument("--xlm_lang", type=str, default="", help="Optional language when used with the XLM model.")
parser.add_argument("--length", type=int, default=30)
parser.add_argument("--batch", type=int, default=10)
parser.add_argument("--num_samples", type=int, default=1)
parser.add_argument("--temperature", type=float, default=0,
help="temperature of 0 implies greedy sampling")
parser.add_argument("--repetition_penalty", type=float, default=1.2,
help="primarily useful for CTRL model; in that case, use 1.2")
parser.add_argument("--top_k", type=int, default=1)
parser.add_argument("--top_p", type=float, default=0.9)
parser.add_argument("--no_cuda", action='store_true',
help="Avoid using CUDA when available")
parser.add_argument('--seed', type=int, default=42,
help="random seed for initialization")
parser.add_argument('--stop_token', type=str, default='<|endoftext|>',
help="Token at which text generation is stopped")
parser.add_argument ('--style', type=str, default='temporal',
help="The style for generating the pseudo wrong endings: temporal/causal")
args = parser.parse_args()
args.device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
args.n_gpu = torch.cuda.device_count()
set_seed(args)
args.model_type = args.model_type.lower()
model_class, tokenizer_class = MODEL_CLASSES[args.model_type]
tokenizer = tokenizer_class.from_pretrained(args.model_name_or_path)
model = model_class.from_pretrained(args.model_name_or_path)
model.to(args.device)
model.eval()
if args.length < 0 and model.config.max_position_embeddings > 0:
args.length = model.config.max_position_embeddings
elif 0 < model.config.max_position_embeddings < args.length:
args.length = model.config.max_position_embeddings # No generation bigger than model size
elif args.length < 0:
args.length = MAX_LENGTH # avoid infinite loop
logger.info(args)
if args.model_type in ["ctrl"]:
if args.temperature > 0.7:
logger.info('CTRL typically works better with lower temperatures (and lower top_k).')
while True:
xlm_lang = None
# XLM Language usage detailed in the issues #1414
if args.model_type in ["xlm"] and hasattr(tokenizer, 'lang2id') and hasattr(model.config, 'use_lang_emb') \
and model.config.use_lang_emb:
if args.xlm_lang:
language = args.xlm_lang
else:
language = None
while language not in tokenizer.lang2id.keys():
language = input("Using XLM. Select language in " + str(list(tokenizer.lang2id.keys())) + " >>> ")
xlm_lang = tokenizer.lang2id[language]
# XLM masked-language modeling (MLM) models need masked token (see details in sample_sequence)
is_xlm_mlm = args.model_type in ["xlm"] and 'mlm' in args.model_name_or_path
if is_xlm_mlm:
xlm_mask_token = tokenizer.mask_token_id
else:
xlm_mask_token = None
raw_text = args.prompt if args.prompt else input("Model prompt >>> ")
if args.model_type in ["transfo-xl", "xlnet"]:
# Models with memory likes to have a long prompt for short inputs.
raw_text = (args.padding_text if args.padding_text else PADDING_TEXT) + raw_text
context_tokens = tokenizer.encode(raw_text, add_special_tokens=False)
if args.model_type == "ctrl":
if not any(context_tokens[0] == x for x in tokenizer.control_codes.values()):
logger.info("WARNING! You are not starting your generation from a control code so you won't get good results")
with open (args.source_text_path, 'r', encoding='utf-8') as data_file, \
open (args.source_text_path + "_cl_is_result.tsv", 'w', encoding='utf-8') as new_file, \
open (args.source_text_path + "_cl_is_eval.tsv", 'w', encoding='utf-8') as eval_file:
import csv
reader = csv.reader (data_file)
next (reader)
all_data = []
for line in reader:
all_data.append (line)
print (all_data[0])
new_file.write ('context\tsource\ttarget\n')
from tqdm import tqdm
source_corpus = []
target_corpus = []
for raw_data in tqdm(all_data):
context = ' '.join(raw_data[2:6])
source = raw_data[6]
# import random
list = raw_data[2:6]
# random.shuffle(list)
target = ' '.join(list)
context_tokens = tokenizer.encode (target, add_special_tokens=False)
out = sample_sequence (
model=model,
context=context_tokens,
num_samples=args.num_samples,
length=args.length,
temperature=args.temperature,
top_k=args.top_k,
top_p=args.top_p,
repetition_penalty=args.repetition_penalty,
is_xlnet=bool (args.model_type == "xlnet"),
is_xlm_mlm=is_xlm_mlm,
xlm_mask_token=xlm_mask_token,
xlm_lang=xlm_lang,
device=args.device,
)
out = out[:, len (context_tokens):].tolist ()
for o in out:
# text = tokenizer.decode(o, cleanI_up_tokenization_spaces=True)
text = tokenizer.decode (o)
text = text[: text.find (args.stop_token) if args.stop_token else None]
target = text.replace ('<|endoftext|>', '')
source_corpus.append(source)
target_corpus.append(target)
new_file.write (context+"\t"+source+"\t"+target+"\n")
bleu_list = []
rouge_ = []
for source, target in zip (source_corpus, target_corpus):
bleu = sacrebleu.corpus_bleu (target, source)
bleu_list.append (bleu.precisions)
rouge = Rouge ()
for source, target in zip (source_corpus, target_corpus):
# rouge_l = compute_rouge_L(source, target)
rouge_x = rouge.get_scores (source, target)
rouge_1 = rouge_x[0]["rouge-1"]['f']
rouge_2 = rouge_x[0]["rouge-2"]['f']
rouge_l = rouge_x[0]["rouge-l"]['f']
rouge_.append ([rouge_1, rouge_2, rouge_l])
bleu_score = np.mean (bleu_list, axis=0)
rouge_score_ = np.mean (rouge_, axis=0)
print ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
print ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
print ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
print ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
print ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
print ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
eval_file.write ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
eval_file.write ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
eval_file.write ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
eval_file.write ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
eval_file.write ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
eval_file.write ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
if args.prompt:
break
# return target
if __name__ == '__main__':
main()
| [] |
2024-01-10 | IndexFziQ/CLSEG | src~run_generation_cl_all.py | #!/usr/bin/env python3
# coding=utf-8
# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team.
# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
""" Conditional text generation with the auto-regressive models of the library (GPT/GPT-2/CTRL/Transformer-XL/XLNet)
"""
from __future__ import absolute_import, division, print_function, unicode_literals
import argparse
import logging
from tqdm import trange
import torch
import torch.nn.functional as F
import numpy as np
from transformers import GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig
from transformers import GPT2LMHeadModel, GPT2Tokenizer
from transformers import OpenAIGPTLMHeadModel, OpenAIGPTTokenizer
from transformers import XLNetLMHeadModel, XLNetTokenizer
from transformers import TransfoXLLMHeadModel, TransfoXLTokenizer
from transformers import CTRLLMHeadModel, CTRLTokenizer
from transformers import XLMWithLMHeadModel, XLMTokenizer
# from tools.EA.get_concepts_from_behave import tokenization, lower_case
# from tools.EA.LIB.EVAL.bleu import compute_bleu
# from tools.EA.LIB.EVAL.rouge import compute_rouge_L
import sacrebleu
from rouge import Rouge
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.INFO)
logger = logging.getLogger(__name__)
MAX_LENGTH = int(10000) # Hardcoded max length to avoid infinite loop
ALL_MODELS = sum((tuple(conf.pretrained_config_archive_map.keys()) for conf in (GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig)), ())
MODEL_CLASSES = {
'gpt2': (GPT2LMHeadModel, GPT2Tokenizer),
'ctrl': (CTRLLMHeadModel, CTRLTokenizer),
'openai-gpt': (OpenAIGPTLMHeadModel, OpenAIGPTTokenizer),
'xlnet': (XLNetLMHeadModel, XLNetTokenizer),
'transfo-xl': (TransfoXLLMHeadModel, TransfoXLTokenizer),
'xlm': (XLMWithLMHeadModel, XLMTokenizer),
}
# Padding text to help Transformer-XL and XLNet with short prompts as proposed by Aman Rusia
# in https://github.com/rusiaaman/XLNet-gen#methodology
# and https://medium.com/@amanrusia/xlnet-speaks-comparison-to-gpt-2-ea1a4e9ba39e
# PADDING_TEXT = """ In 1991, the remains of Russian Tsar Nicholas II and his family
# (except for Alexei and Maria) are discovered.
# The voice of Nicholas's young son, Tsarevich Alexei Nikolaevich, narrates the
# remainder of the story. 1883 Western Siberia,
# a young Grigori Rasputin is asked by his father and a group of men to perform magic.
# Rasputin has a vision and denounces one of the men as a horse thief. Although his
# father initially slaps him for making such an accusation, Rasputin watches as the
# man is chased outside and beaten. Twenty years later, Rasputin sees a vision of
# the Virgin Mary, prompting him to become a priest. Rasputin quickly becomes famous,
# with people, even a bishop, begging for his blessing. <eod> </s> <eos>"""
def set_seed(args):
np.random.seed(args.seed)
torch.manual_seed(args.seed)
if args.n_gpu > 0:
torch.cuda.manual_seed_all(args.seed)
def top_k_top_p_filtering(logits, top_k=0, top_p=0.0, filter_value=-float('Inf')):
""" Filter a distribution of logits using top-k and/or nucleus (top-p) filtering
Args:
logits: logits distribution shape (batch size x vocabulary size)
top_k > 0: keep only top k tokens with highest probability (top-k filtering).
top_p > 0.0: keep the top tokens with cumulative probability >= top_p (nucleus filtering).
Nucleus filtering is described in Holtzman et al. (http://arxiv.org/abs/1904.09751)
From: https://gist.github.com/thomwolf/1a5a29f6962089e871b94cbd09daf317
"""
top_k = min(top_k, logits.size(-1)) # Safety check
if top_k > 0:
# Remove all tokens with a probability less than the last token of the top-k
indices_to_remove = logits < torch.topk(logits, top_k)[0][..., -1, None]
logits[indices_to_remove] = filter_value
if top_p > 0.0:
sorted_logits, sorted_indices = torch.sort(logits, descending=True)
cumulative_probs = torch.cumsum(F.softmax(sorted_logits, dim=-1), dim=-1)
# Remove tokens with cumulative probability above the threshold
sorted_indices_to_remove = cumulative_probs > top_p
# Shift the indices to the right to keep also the first token above the threshold
sorted_indices_to_remove[..., 1:] = sorted_indices_to_remove[..., :-1].clone()
sorted_indices_to_remove[..., 0] = 0
# scatter sorted tensors to original indexing
indices_to_remove = sorted_indices_to_remove.scatter(dim=1, index=sorted_indices, src=sorted_indices_to_remove)
logits[indices_to_remove] = filter_value
return logits
def sample_sequence(model, length, context, num_samples=1, temperature=1, top_k=0, top_p=0.0, repetition_penalty=1.0,
is_xlnet=False, is_xlm_mlm=False, xlm_mask_token=None, xlm_lang=None, device='cpu'):
context = torch.tensor(context, dtype=torch.long, device=device)
context = context.unsqueeze(0).repeat(num_samples, 1)
generated = context
# all_loss = []
with torch.no_grad():
for _ in range(length):
inputs = {'input_ids': generated}
if is_xlnet:
# XLNet is a direct (predict same token, not next token) and bi-directional model by default
# => need one additional dummy token in the input (will be masked), attention mask and target mapping (see model docstring)
input_ids = torch.cat((generated, torch.zeros((1, 1), dtype=torch.long, device=device)), dim=1)
perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float, device=device)
perm_mask[:, :, -1] = 1.0 # Previous tokens don't see last token
target_mapping = torch.zeros((1, 1, input_ids.shape[1]), dtype=torch.float, device=device)
target_mapping[0, 0, -1] = 1.0 # predict last token
inputs = {'input_ids': input_ids, 'perm_mask': perm_mask, 'target_mapping': target_mapping}
if is_xlm_mlm and xlm_mask_token:
# XLM MLM models are direct models (predict same token, not next token)
# => need one additional dummy token in the input (will be masked and guessed)
input_ids = torch.cat((generated, torch.full((1, 1), xlm_mask_token, dtype=torch.long, device=device)), dim=1)
inputs = {'input_ids': input_ids}
if xlm_lang is not None:
inputs["langs"] = torch.tensor([xlm_lang] * inputs["input_ids"].shape[1], device=device).view(1, -1)
outputs = model(**inputs) # Note: we could also use 'past' with GPT-2/Transfo-XL/XLNet/CTRL (cached hidden-states)
next_token_logits = outputs[0][:, -1, :] / (temperature if temperature > 0 else 1.)
# print(next_token_logits.size())
# tmp_eval_loss = outputs[0][:, :, -1][-1][-1]
# print(outputs[0][:, :, -1][-1])
# print (tmp_eval_loss.size ())
# cur_loss = np.abs(tmp_eval_loss.item())
# print(cur_loss)
# all_loss.append(cur_loss)
# repetition penalty from CTRL (https://arxiv.org/abs/1909.05858)
for i in range(num_samples):
for _ in set(generated[i].tolist()):
next_token_logits[i, _] /= repetition_penalty
filtered_logits = top_k_top_p_filtering(next_token_logits, top_k=top_k, top_p=top_p)
if temperature == 0: # greedy sampling:
next_token = torch.argmax(filtered_logits, dim=-1).unsqueeze(-1)
else:
next_token = torch.multinomial(F.softmax(filtered_logits, dim=-1), num_samples=1)
generated = torch.cat((generated, next_token), dim=1)
# print(next_token.item())
if next_token.item() == 29:
break
# print(all_loss)
# avg_loss = np.mean (np.array (all_loss))
# ppl = np.exp(avg_loss)
# print('test_loss (bpe): %.4f, test_perplexity: %.4f' % (avg_loss, ppl))
return generated
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_roc/lmft_lm_gpt2_rocmedium_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_cl/lmft_lm_gpt2_cl_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--model_type", default='gpt2', type=str, required=False,
help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
parser.add_argument("--model_name_or_path", default='/data/xieyuqiang/story_comprehension/checkpoints_ft_with_cl/lmft_lm_gpt2_clall_gn1_bp1_gc32_lr1_l128_e3_seed42_cgn1', type=str, required=False,
help="Path to pre-trained model or shortcut name selected in the list: " + ", ".join(ALL_MODELS))
parser.add_argument("--source_text_path", type=str, default="/data/xieyuqiang/story_comprehension/data/roc/roc_val.csv")
parser.add_argument("--prompt", type=str, default=" ")
parser.add_argument("--padding_text", type=str, default="")
parser.add_argument("--xlm_lang", type=str, default="", help="Optional language when used with the XLM model.")
parser.add_argument("--length", type=int, default=30)
parser.add_argument("--batch", type=int, default=10)
parser.add_argument("--num_samples", type=int, default=1)
parser.add_argument("--temperature", type=float, default=0,
help="temperature of 0 implies greedy sampling")
parser.add_argument("--repetition_penalty", type=float, default=1.2,
help="primarily useful for CTRL model; in that case, use 1.2")
parser.add_argument("--top_k", type=int, default=1)
parser.add_argument("--top_p", type=float, default=0.9)
parser.add_argument("--no_cuda", action='store_true',
help="Avoid using CUDA when available")
parser.add_argument('--seed', type=int, default=42,
help="random seed for initialization")
parser.add_argument('--stop_token', type=str, default='<|endoftext|>',
help="Token at which text generation is stopped")
parser.add_argument ('--style', type=str, default='temporal',
help="The style for generating the pseudo wrong endings: temporal/causal")
args = parser.parse_args()
args.device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
args.n_gpu = torch.cuda.device_count()
set_seed(args)
args.model_type = args.model_type.lower()
model_class, tokenizer_class = MODEL_CLASSES[args.model_type]
tokenizer = tokenizer_class.from_pretrained(args.model_name_or_path)
model = model_class.from_pretrained(args.model_name_or_path)
model.to(args.device)
model.eval()
if args.length < 0 and model.config.max_position_embeddings > 0:
args.length = model.config.max_position_embeddings
elif 0 < model.config.max_position_embeddings < args.length:
args.length = model.config.max_position_embeddings # No generation bigger than model size
elif args.length < 0:
args.length = MAX_LENGTH # avoid infinite loop
logger.info(args)
if args.model_type in ["ctrl"]:
if args.temperature > 0.7:
logger.info('CTRL typically works better with lower temperatures (and lower top_k).')
while True:
xlm_lang = None
# XLM Language usage detailed in the issues #1414
if args.model_type in ["xlm"] and hasattr(tokenizer, 'lang2id') and hasattr(model.config, 'use_lang_emb') \
and model.config.use_lang_emb:
if args.xlm_lang:
language = args.xlm_lang
else:
language = None
while language not in tokenizer.lang2id.keys():
language = input("Using XLM. Select language in " + str(list(tokenizer.lang2id.keys())) + " >>> ")
xlm_lang = tokenizer.lang2id[language]
# XLM masked-language modeling (MLM) models need masked token (see details in sample_sequence)
is_xlm_mlm = args.model_type in ["xlm"] and 'mlm' in args.model_name_or_path
if is_xlm_mlm:
xlm_mask_token = tokenizer.mask_token_id
else:
xlm_mask_token = None
raw_text = args.prompt if args.prompt else input("Model prompt >>> ")
if args.model_type in ["transfo-xl", "xlnet"]:
# Models with memory likes to have a long prompt for short inputs.
raw_text = (args.padding_text if args.padding_text else PADDING_TEXT) + raw_text
context_tokens = tokenizer.encode(raw_text, add_special_tokens=False)
if args.model_type == "ctrl":
if not any(context_tokens[0] == x for x in tokenizer.control_codes.values()):
logger.info("WARNING! You are not starting your generation from a control code so you won't get good results")
with open (args.source_text_path, 'r', encoding='utf-8') as data_file, \
open (args.source_text_path + "_cl_all_result.tsv", 'w', encoding='utf-8') as new_file, \
open (args.source_text_path + "_cl_all_eval.tsv", 'w', encoding='utf-8') as eval_file:
import csv
reader = csv.reader (data_file)
next (reader)
all_data = []
for line in reader:
all_data.append (line)
print (all_data[0])
new_file.write ('context\tsource\ttarget\n')
from tqdm import tqdm
source_corpus = []
target_corpus = []
for raw_data in tqdm(all_data):
context = ' '.join(raw_data[2:6])
source = raw_data[6]
# import random
list = raw_data[2:6]
# random.shuffle(list)
target = ' '.join(list)
context_tokens = tokenizer.encode (target, add_special_tokens=False)
out = sample_sequence (
model=model,
context=context_tokens,
num_samples=args.num_samples,
length=args.length,
temperature=args.temperature,
top_k=args.top_k,
top_p=args.top_p,
repetition_penalty=args.repetition_penalty,
is_xlnet=bool (args.model_type == "xlnet"),
is_xlm_mlm=is_xlm_mlm,
xlm_mask_token=xlm_mask_token,
xlm_lang=xlm_lang,
device=args.device,
)
out = out[:, len (context_tokens):].tolist ()
for o in out:
# text = tokenizer.decode(o, cleanI_up_tokenization_spaces=True)
text = tokenizer.decode (o)
text = text[: text.find (args.stop_token) if args.stop_token else None]
target = text.replace ('<|endoftext|>', '')
source_corpus.append(source)
target_corpus.append(target)
new_file.write (context+"\t"+source+"\t"+target+"\n")
bleu_list = []
rouge_ = []
for source, target in zip (source_corpus, target_corpus):
bleu = sacrebleu.corpus_bleu (target, source)
bleu_list.append (bleu.precisions)
rouge = Rouge ()
for source, target in zip (source_corpus, target_corpus):
# rouge_l = compute_rouge_L(source, target)
rouge_x = rouge.get_scores (source, target)
rouge_1 = rouge_x[0]["rouge-1"]['f']
rouge_2 = rouge_x[0]["rouge-2"]['f']
rouge_l = rouge_x[0]["rouge-l"]['f']
rouge_.append ([rouge_1, rouge_2, rouge_l])
bleu_score = np.mean (bleu_list, axis=0)
rouge_score_ = np.mean (rouge_, axis=0)
print ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
print ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
print ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
print ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
print ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
print ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
eval_file.write ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
eval_file.write ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
eval_file.write ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
eval_file.write ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
eval_file.write ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
eval_file.write ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
if args.prompt:
break
# return target
if __name__ == '__main__':
main()
| [] |
2024-01-10 | IndexFziQ/CLSEG | src~run_generation_baseline_gcl.py | #!/usr/bin/env python3
# coding=utf-8
# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team.
# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
""" Conditional text generation with the auto-regressive models of the library (GPT/GPT-2/CTRL/Transformer-XL/XLNet)
"""
from __future__ import absolute_import, division, print_function, unicode_literals
import argparse
import logging
from tqdm import trange
import torch
import torch.nn.functional as F
import numpy as np
from transformers import GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig
from transformers import GPT2LMHeadModel, GPT2Tokenizer
from transformers import OpenAIGPTLMHeadModel, OpenAIGPTTokenizer
from transformers import XLNetLMHeadModel, XLNetTokenizer
from transformers import TransfoXLLMHeadModel, TransfoXLTokenizer
from transformers import CTRLLMHeadModel, CTRLTokenizer
from transformers import XLMWithLMHeadModel, XLMTokenizer
# from tools.EA.get_concepts_from_behave import tokenization, lower_case
# from tools.EA.LIB.EVAL.bleu import compute_bleu
# from tools.EA.LIB.EVAL.rouge import compute_rouge_L
import sacrebleu
from rouge import Rouge
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.INFO)
logger = logging.getLogger(__name__)
MAX_LENGTH = int(10000) # Hardcoded max length to avoid infinite loop
ALL_MODELS = sum((tuple(conf.pretrained_config_archive_map.keys()) for conf in (GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig)), ())
MODEL_CLASSES = {
'gpt2': (GPT2LMHeadModel, GPT2Tokenizer),
'ctrl': (CTRLLMHeadModel, CTRLTokenizer),
'openai-gpt': (OpenAIGPTLMHeadModel, OpenAIGPTTokenizer),
'xlnet': (XLNetLMHeadModel, XLNetTokenizer),
'transfo-xl': (TransfoXLLMHeadModel, TransfoXLTokenizer),
'xlm': (XLMWithLMHeadModel, XLMTokenizer),
}
# Padding text to help Transformer-XL and XLNet with short prompts as proposed by Aman Rusia
# in https://github.com/rusiaaman/XLNet-gen#methodology
# and https://medium.com/@amanrusia/xlnet-speaks-comparison-to-gpt-2-ea1a4e9ba39e
# PADDING_TEXT = """ In 1991, the remains of Russian Tsar Nicholas II and his family
# (except for Alexei and Maria) are discovered.
# The voice of Nicholas's young son, Tsarevich Alexei Nikolaevich, narrates the
# remainder of the story. 1883 Western Siberia,
# a young Grigori Rasputin is asked by his father and a group of men to perform magic.
# Rasputin has a vision and denounces one of the men as a horse thief. Although his
# father initially slaps him for making such an accusation, Rasputin watches as the
# man is chased outside and beaten. Twenty years later, Rasputin sees a vision of
# the Virgin Mary, prompting him to become a priest. Rasputin quickly becomes famous,
# with people, even a bishop, begging for his blessing. <eod> </s> <eos>"""
def set_seed(args):
np.random.seed(args.seed)
torch.manual_seed(args.seed)
if args.n_gpu > 0:
torch.cuda.manual_seed_all(args.seed)
def top_k_top_p_filtering(logits, top_k=0, top_p=0.0, filter_value=-float('Inf')):
""" Filter a distribution of logits using top-k and/or nucleus (top-p) filtering
Args:
logits: logits distribution shape (batch size x vocabulary size)
top_k > 0: keep only top k tokens with highest probability (top-k filtering).
top_p > 0.0: keep the top tokens with cumulative probability >= top_p (nucleus filtering).
Nucleus filtering is described in Holtzman et al. (http://arxiv.org/abs/1904.09751)
From: https://gist.github.com/thomwolf/1a5a29f6962089e871b94cbd09daf317
"""
top_k = min(top_k, logits.size(-1)) # Safety check
if top_k > 0:
# Remove all tokens with a probability less than the last token of the top-k
indices_to_remove = logits < torch.topk(logits, top_k)[0][..., -1, None]
logits[indices_to_remove] = filter_value
if top_p > 0.0:
sorted_logits, sorted_indices = torch.sort(logits, descending=True)
cumulative_probs = torch.cumsum(F.softmax(sorted_logits, dim=-1), dim=-1)
# Remove tokens with cumulative probability above the threshold
sorted_indices_to_remove = cumulative_probs > top_p
# Shift the indices to the right to keep also the first token above the threshold
sorted_indices_to_remove[..., 1:] = sorted_indices_to_remove[..., :-1].clone()
sorted_indices_to_remove[..., 0] = 0
# scatter sorted tensors to original indexing
indices_to_remove = sorted_indices_to_remove.scatter(dim=1, index=sorted_indices, src=sorted_indices_to_remove)
logits[indices_to_remove] = filter_value
return logits
def sample_sequence(model, length, context, num_samples=1, temperature=1, top_k=0, top_p=0.0, repetition_penalty=1.0,
is_xlnet=False, is_xlm_mlm=False, xlm_mask_token=None, xlm_lang=None, device='cpu'):
context = torch.tensor(context, dtype=torch.long, device=device)
context = context.unsqueeze(0).repeat(num_samples, 1)
generated = context
# all_loss = []
with torch.no_grad():
for _ in range(length):
inputs = {'input_ids': generated}
if is_xlnet:
# XLNet is a direct (predict same token, not next token) and bi-directional model by default
# => need one additional dummy token in the input (will be masked), attention mask and target mapping (see model docstring)
input_ids = torch.cat((generated, torch.zeros((1, 1), dtype=torch.long, device=device)), dim=1)
perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float, device=device)
perm_mask[:, :, -1] = 1.0 # Previous tokens don't see last token
target_mapping = torch.zeros((1, 1, input_ids.shape[1]), dtype=torch.float, device=device)
target_mapping[0, 0, -1] = 1.0 # predict last token
inputs = {'input_ids': input_ids, 'perm_mask': perm_mask, 'target_mapping': target_mapping}
if is_xlm_mlm and xlm_mask_token:
# XLM MLM models are direct models (predict same token, not next token)
# => need one additional dummy token in the input (will be masked and guessed)
input_ids = torch.cat((generated, torch.full((1, 1), xlm_mask_token, dtype=torch.long, device=device)), dim=1)
inputs = {'input_ids': input_ids}
if xlm_lang is not None:
inputs["langs"] = torch.tensor([xlm_lang] * inputs["input_ids"].shape[1], device=device).view(1, -1)
outputs = model(**inputs) # Note: we could also use 'past' with GPT-2/Transfo-XL/XLNet/CTRL (cached hidden-states)
next_token_logits = outputs[0][:, -1, :] / (temperature if temperature > 0 else 1.)
# print(next_token_logits.size())
# tmp_eval_loss = outputs[0][:, :, -1][-1][-1]
# print(outputs[0][:, :, -1][-1])
# print (tmp_eval_loss.size ())
# cur_loss = np.abs(tmp_eval_loss.item())
# print(cur_loss)
# all_loss.append(cur_loss)
# repetition penalty from CTRL (https://arxiv.org/abs/1909.05858)
for i in range(num_samples):
for _ in set(generated[i].tolist()):
next_token_logits[i, _] /= repetition_penalty
filtered_logits = top_k_top_p_filtering(next_token_logits, top_k=top_k, top_p=top_p)
if temperature == 0: # greedy sampling:
next_token = torch.argmax(filtered_logits, dim=-1).unsqueeze(-1)
else:
next_token = torch.multinomial(F.softmax(filtered_logits, dim=-1), num_samples=1)
generated = torch.cat((generated, next_token), dim=1)
# print(next_token.item())
if next_token.item() == 29:
break
# print(all_loss)
# avg_loss = np.mean (np.array (all_loss))
# ppl = np.exp(avg_loss)
# print('test_loss (bpe): %.4f, test_perplexity: %.4f' % (avg_loss, ppl))
return generated
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_roc/lmft_lm_gpt2_rocmedium_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
# /data/xieyuqiang/story_comprehension/checkpoints_ft_with_cl/lmft_lm_gpt2_cl_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--model_type", default='gpt2', type=str, required=False,
help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
parser.add_argument("--model_name_or_path", default='/data/xieyuqiang/story_comprehension/checkpoints_ft_with_cl/lmft_lm_gpt2_gcl_gn1_bp1_gc32_lr1_l128_e3_seed42_cgn1', type=str, required=False,
help="Path to pre-trained model or shortcut name selected in the list: " + ", ".join(ALL_MODELS))
parser.add_argument("--source_text_path", type=str, default="/data/xieyuqiang/story_comprehension/data/roc/roc_val.csv")
parser.add_argument("--prompt", type=str, default=" ")
parser.add_argument("--padding_text", type=str, default="")
parser.add_argument("--xlm_lang", type=str, default="", help="Optional language when used with the XLM model.")
parser.add_argument("--length", type=int, default=30)
parser.add_argument("--batch", type=int, default=10)
parser.add_argument("--num_samples", type=int, default=1)
parser.add_argument("--temperature", type=float, default=0,
help="temperature of 0 implies greedy sampling")
parser.add_argument("--repetition_penalty", type=float, default=1.2,
help="primarily useful for CTRL model; in that case, use 1.2")
parser.add_argument("--top_k", type=int, default=1)
parser.add_argument("--top_p", type=float, default=0.9)
parser.add_argument("--no_cuda", action='store_true',
help="Avoid using CUDA when available")
parser.add_argument('--seed', type=int, default=42,
help="random seed for initialization")
parser.add_argument('--stop_token', type=str, default='<|endoftext|>',
help="Token at which text generation is stopped")
parser.add_argument ('--style', type=str, default='temporal',
help="The style for generating the pseudo wrong endings: temporal/causal")
args = parser.parse_args()
args.device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
args.n_gpu = torch.cuda.device_count()
set_seed(args)
args.model_type = args.model_type.lower()
model_class, tokenizer_class = MODEL_CLASSES[args.model_type]
tokenizer = tokenizer_class.from_pretrained(args.model_name_or_path)
model = model_class.from_pretrained(args.model_name_or_path)
model.to(args.device)
model.eval()
if args.length < 0 and model.config.max_position_embeddings > 0:
args.length = model.config.max_position_embeddings
elif 0 < model.config.max_position_embeddings < args.length:
args.length = model.config.max_position_embeddings # No generation bigger than model size
elif args.length < 0:
args.length = MAX_LENGTH # avoid infinite loop
logger.info(args)
if args.model_type in ["ctrl"]:
if args.temperature > 0.7:
logger.info('CTRL typically works better with lower temperatures (and lower top_k).')
while True:
xlm_lang = None
# XLM Language usage detailed in the issues #1414
if args.model_type in ["xlm"] and hasattr(tokenizer, 'lang2id') and hasattr(model.config, 'use_lang_emb') \
and model.config.use_lang_emb:
if args.xlm_lang:
language = args.xlm_lang
else:
language = None
while language not in tokenizer.lang2id.keys():
language = input("Using XLM. Select language in " + str(list(tokenizer.lang2id.keys())) + " >>> ")
xlm_lang = tokenizer.lang2id[language]
# XLM masked-language modeling (MLM) models need masked token (see details in sample_sequence)
is_xlm_mlm = args.model_type in ["xlm"] and 'mlm' in args.model_name_or_path
if is_xlm_mlm:
xlm_mask_token = tokenizer.mask_token_id
else:
xlm_mask_token = None
raw_text = args.prompt if args.prompt else input("Model prompt >>> ")
if args.model_type in ["transfo-xl", "xlnet"]:
# Models with memory likes to have a long prompt for short inputs.
raw_text = (args.padding_text if args.padding_text else PADDING_TEXT) + raw_text
context_tokens = tokenizer.encode(raw_text, add_special_tokens=False)
if args.model_type == "ctrl":
if not any(context_tokens[0] == x for x in tokenizer.control_codes.values()):
logger.info("WARNING! You are not starting your generation from a control code so you won't get good results")
with open (args.source_text_path, 'r', encoding='utf-8') as data_file, \
open (args.source_text_path + "_gcl_result.tsv", 'w', encoding='utf-8') as new_file, \
open (args.source_text_path + "_gcl_eval.tsv", 'w', encoding='utf-8') as eval_file:
import csv
reader = csv.reader (data_file)
next (reader)
all_data = []
for line in reader:
all_data.append (line)
print (all_data[0])
new_file.write ('context\tsource\ttarget\n')
from tqdm import tqdm
source_corpus = []
target_corpus = []
for raw_data in tqdm(all_data):
context = ' '.join(raw_data[2:6])
source = raw_data[6]
# import random
list = raw_data[2:6]
# random.shuffle(list)
target = ' '.join(list)
context_tokens = tokenizer.encode (target, add_special_tokens=False)
out = sample_sequence (
model=model,
context=context_tokens,
num_samples=args.num_samples,
length=args.length,
temperature=args.temperature,
top_k=args.top_k,
top_p=args.top_p,
repetition_penalty=args.repetition_penalty,
is_xlnet=bool (args.model_type == "xlnet"),
is_xlm_mlm=is_xlm_mlm,
xlm_mask_token=xlm_mask_token,
xlm_lang=xlm_lang,
device=args.device,
)
out = out[:, len (context_tokens):].tolist ()
for o in out:
# text = tokenizer.decode(o, cleanI_up_tokenization_spaces=True)
text = tokenizer.decode (o)
text = text[: text.find (args.stop_token) if args.stop_token else None]
target = text.replace ('<|endoftext|>', '')
source_corpus.append(source)
target_corpus.append(target)
new_file.write (context+"\t"+source+"\t"+target+"\n")
bleu_list = []
rouge_ = []
for source, target in zip (source_corpus, target_corpus):
bleu = sacrebleu.corpus_bleu (target, source)
bleu_list.append (bleu.precisions)
rouge = Rouge ()
for source, target in zip (source_corpus, target_corpus):
# rouge_l = compute_rouge_L(source, target)
rouge_x = rouge.get_scores (source, target)
rouge_1 = rouge_x[0]["rouge-1"]['f']
rouge_2 = rouge_x[0]["rouge-2"]['f']
rouge_l = rouge_x[0]["rouge-l"]['f']
rouge_.append ([rouge_1, rouge_2, rouge_l])
bleu_score = np.mean (bleu_list, axis=0)
rouge_score_ = np.mean (rouge_, axis=0)
print ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
print ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
print ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
print ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
print ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
print ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
eval_file.write ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
eval_file.write ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
eval_file.write ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
eval_file.write ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
eval_file.write ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
eval_file.write ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
if args.prompt:
break
# return target
if __name__ == '__main__':
main()
| [] |
2024-01-10 | IndexFziQ/CLSEG | src~run_generation_csl.py | #!/usr/bin/env python3
# coding=utf-8
# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team.
# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
""" Conditional text generation with the auto-regressive models of the library (GPT/GPT-2/CTRL/Transformer-XL/XLNet)
"""
from __future__ import absolute_import, division, print_function, unicode_literals
import argparse
import logging
from tqdm import trange
import torch
import torch.nn.functional as F
import numpy as np
from transformers import GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig
from transformers import GPT2LMHeadModel, GPT2Tokenizer
from transformers import OpenAIGPTLMHeadModel, OpenAIGPTTokenizer
from transformers import XLNetLMHeadModel, XLNetTokenizer
from transformers import TransfoXLLMHeadModel, TransfoXLTokenizer
from transformers import CTRLLMHeadModel, CTRLTokenizer
from transformers import XLMWithLMHeadModel, XLMTokenizer
# from tools.EA.get_concepts_from_behave import tokenization, lower_case
# from tools.EA.LIB.EVAL.bleu import compute_bleu
# from tools.EA.LIB.EVAL.rouge import compute_rouge_L
import sacrebleu
from rouge import Rouge
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.INFO)
logger = logging.getLogger(__name__)
MAX_LENGTH = int(10000) # Hardcoded max length to avoid infinite loop
ALL_MODELS = sum((tuple(conf.pretrained_config_archive_map.keys()) for conf in (GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig)), ())
MODEL_CLASSES = {
'gpt2': (GPT2LMHeadModel, GPT2Tokenizer),
'ctrl': (CTRLLMHeadModel, CTRLTokenizer),
'openai-gpt': (OpenAIGPTLMHeadModel, OpenAIGPTTokenizer),
'xlnet': (XLNetLMHeadModel, XLNetTokenizer),
'transfo-xl': (TransfoXLLMHeadModel, TransfoXLTokenizer),
'xlm': (XLMWithLMHeadModel, XLMTokenizer),
}
# Padding text to help Transformer-XL and XLNet with short prompts as proposed by Aman Rusia
# in https://github.com/rusiaaman/XLNet-gen#methodology
# and https://medium.com/@amanrusia/xlnet-speaks-comparison-to-gpt-2-ea1a4e9ba39e
# PADDING_TEXT = """ In 1991, the remains of Russian Tsar Nicholas II and his family
# (except for Alexei and Maria) are discovered.
# The voice of Nicholas's young son, Tsarevich Alexei Nikolaevich, narrates the
# remainder of the story. 1883 Western Siberia,
# a young Grigori Rasputin is asked by his father and a group of men to perform magic.
# Rasputin has a vision and denounces one of the men as a horse thief. Although his
# father initially slaps him for making such an accusation, Rasputin watches as the
# man is chased outside and beaten. Twenty years later, Rasputin sees a vision of
# the Virgin Mary, prompting him to become a priest. Rasputin quickly becomes famous,
# with people, even a bishop, begging for his blessing. <eod> </s> <eos>"""
def set_seed(args):
np.random.seed(args.seed)
torch.manual_seed(args.seed)
if args.n_gpu > 0:
torch.cuda.manual_seed_all(args.seed)
def top_k_top_p_filtering(logits, top_k=0, top_p=0.0, filter_value=-float('Inf')):
""" Filter a distribution of logits using top-k and/or nucleus (top-p) filtering
Args:
logits: logits distribution shape (batch size x vocabulary size)
top_k > 0: keep only top k tokens with highest probability (top-k filtering).
top_p > 0.0: keep the top tokens with cumulative probability >= top_p (nucleus filtering).
Nucleus filtering is described in Holtzman et al. (http://arxiv.org/abs/1904.09751)
From: https://gist.github.com/thomwolf/1a5a29f6962089e871b94cbd09daf317
"""
top_k = min(top_k, logits.size(-1)) # Safety check
if top_k > 0:
# Remove all tokens with a probability less than the last token of the top-k
indices_to_remove = logits < torch.topk(logits, top_k)[0][..., -1, None]
logits[indices_to_remove] = filter_value
if top_p > 0.0:
sorted_logits, sorted_indices = torch.sort(logits, descending=True)
cumulative_probs = torch.cumsum(F.softmax(sorted_logits, dim=-1), dim=-1)
# Remove tokens with cumulative probability above the threshold
sorted_indices_to_remove = cumulative_probs > top_p
# Shift the indices to the right to keep also the first token above the threshold
sorted_indices_to_remove[..., 1:] = sorted_indices_to_remove[..., :-1].clone()
sorted_indices_to_remove[..., 0] = 0
# scatter sorted tensors to original indexing
indices_to_remove = sorted_indices_to_remove.scatter(dim=1, index=sorted_indices, src=sorted_indices_to_remove)
logits[indices_to_remove] = filter_value
return logits
def sample_sequence(model, length, context, num_samples=1, temperature=1, top_k=0, top_p=0.0, repetition_penalty=1.0,
is_xlnet=False, is_xlm_mlm=False, xlm_mask_token=None, xlm_lang=None, device='cpu'):
context = torch.tensor(context, dtype=torch.long, device=device)
context = context.unsqueeze(0).repeat(num_samples, 1)
generated = context
# all_loss = []
with torch.no_grad():
for _ in range(length):
inputs = {'input_ids': generated}
if is_xlnet:
# XLNet is a direct (predict same token, not next token) and bi-directional model by default
# => need one additional dummy token in the input (will be masked), attention mask and target mapping (see model docstring)
input_ids = torch.cat((generated, torch.zeros((1, 1), dtype=torch.long, device=device)), dim=1)
perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float, device=device)
perm_mask[:, :, -1] = 1.0 # Previous tokens don't see last token
target_mapping = torch.zeros((1, 1, input_ids.shape[1]), dtype=torch.float, device=device)
target_mapping[0, 0, -1] = 1.0 # predict last token
inputs = {'input_ids': input_ids, 'perm_mask': perm_mask, 'target_mapping': target_mapping}
if is_xlm_mlm and xlm_mask_token:
# XLM MLM models are direct models (predict same token, not next token)
# => need one additional dummy token in the input (will be masked and guessed)
input_ids = torch.cat((generated, torch.full((1, 1), xlm_mask_token, dtype=torch.long, device=device)), dim=1)
inputs = {'input_ids': input_ids}
if xlm_lang is not None:
inputs["langs"] = torch.tensor([xlm_lang] * inputs["input_ids"].shape[1], device=device).view(1, -1)
outputs = model(**inputs) # Note: we could also use 'past' with GPT-2/Transfo-XL/XLNet/CTRL (cached hidden-states)
next_token_logits = outputs[0][:, -1, :] / (temperature if temperature > 0 else 1.)
# print(next_token_logits.size())
# tmp_eval_loss = outputs[0][:, :, -1][-1][-1]
# print(outputs[0][:, :, -1][-1])
# print (tmp_eval_loss.size ())
# cur_loss = np.abs(tmp_eval_loss.item())
# print(cur_loss)
# all_loss.append(cur_loss)
# repetition penalty from CTRL (https://arxiv.org/abs/1909.05858)
for i in range(num_samples):
for _ in set(generated[i].tolist()):
next_token_logits[i, _] /= repetition_penalty
filtered_logits = top_k_top_p_filtering(next_token_logits, top_k=top_k, top_p=top_p)
if temperature == 0: # greedy sampling:
next_token = torch.argmax(filtered_logits, dim=-1).unsqueeze(-1)
else:
next_token = torch.multinomial(F.softmax(filtered_logits, dim=-1), num_samples=1)
generated = torch.cat((generated, next_token), dim=1)
# print(next_token.item())
if next_token.item() == 29:
break
# print(all_loss)
# avg_loss = np.mean (np.array (all_loss))
# ppl = np.exp(avg_loss)
# print('test_loss (bpe): %.4f, test_perplexity: %.4f' % (avg_loss, ppl))
return generated
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--model_type", default='gpt2', type=str, required=False,
help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
parser.add_argument("--model_name_or_path", default='/data/xieyuqiang/story_comprehension/checkpoints_ft_with_cfg/lmft_lm_gpt2_cfg_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1', type=str, required=False,
help="Path to pre-trained model or shortcut name selected in the list: " + ", ".join(ALL_MODELS))
parser.add_argument("--source_text_path", type=str, default="/data/xieyuqiang/story_comprehension/data/roc/roc_train.csv")
parser.add_argument("--prompt", type=str, default=" ")
parser.add_argument("--padding_text", type=str, default="")
parser.add_argument("--xlm_lang", type=str, default="", help="Optional language when used with the XLM model.")
parser.add_argument("--length", type=int, default=60)
parser.add_argument("--batch", type=int, default=2)
parser.add_argument("--num_samples", type=int, default=1)
parser.add_argument("--temperature", type=float, default=0,
help="temperature of 0 implies greedy sampling")
parser.add_argument("--repetition_penalty", type=float, default=1.2,
help="primarily useful for CTRL model; in that case, use 1.2")
parser.add_argument("--top_k", type=int, default=1)
parser.add_argument("--top_p", type=float, default=0.9)
parser.add_argument("--no_cuda", action='store_true',
help="Avoid using CUDA when available")
parser.add_argument('--seed', type=int, default=42,
help="random seed for initialization")
parser.add_argument('--stop_token', type=str, default='<|endoftext|>',
help="Token at which text generation is stopped")
parser.add_argument ('--style', type=str, default='temporal',
help="The style for generating the pseudo wrong endings: temporal/causal")
args = parser.parse_args()
args.device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
args.n_gpu = torch.cuda.device_count()
set_seed(args)
args.model_type = args.model_type.lower()
model_class, tokenizer_class = MODEL_CLASSES[args.model_type]
tokenizer = tokenizer_class.from_pretrained(args.model_name_or_path)
model = model_class.from_pretrained(args.model_name_or_path)
model.to(args.device)
model.eval()
if args.length < 0 and model.config.max_position_embeddings > 0:
args.length = model.config.max_position_embeddings
elif 0 < model.config.max_position_embeddings < args.length:
args.length = model.config.max_position_embeddings # No generation bigger than model size
elif args.length < 0:
args.length = MAX_LENGTH # avoid infinite loop
logger.info(args)
if args.model_type in ["ctrl"]:
if args.temperature > 0.7:
logger.info('CTRL typically works better with lower temperatures (and lower top_k).')
while True:
xlm_lang = None
# XLM Language usage detailed in the issues #1414
if args.model_type in ["xlm"] and hasattr(tokenizer, 'lang2id') and hasattr(model.config, 'use_lang_emb') \
and model.config.use_lang_emb:
if args.xlm_lang:
language = args.xlm_lang
else:
language = None
while language not in tokenizer.lang2id.keys():
language = input("Using XLM. Select language in " + str(list(tokenizer.lang2id.keys())) + " >>> ")
xlm_lang = tokenizer.lang2id[language]
# XLM masked-language modeling (MLM) models need masked token (see details in sample_sequence)
is_xlm_mlm = args.model_type in ["xlm"] and 'mlm' in args.model_name_or_path
if is_xlm_mlm:
xlm_mask_token = tokenizer.mask_token_id
else:
xlm_mask_token = None
raw_text = args.prompt if args.prompt else input("Model prompt >>> ")
if args.model_type in ["transfo-xl", "xlnet"]:
# Models with memory likes to have a long prompt for short inputs.
raw_text = (args.padding_text if args.padding_text else PADDING_TEXT) + raw_text
context_tokens = tokenizer.encode(raw_text, add_special_tokens=False)
if args.model_type == "ctrl":
if not any(context_tokens[0] == x for x in tokenizer.control_codes.values()):
logger.info("WARNING! You are not starting your generation from a control code so you won't get good results")
with open (args.source_text_path, 'r', encoding='utf-8') as data_file, \
open (args.source_text_path + "_causal.tsv", 'w', encoding='utf-8') as new_file, \
open (args.source_text_path + "_eval.tsv", 'w', encoding='utf-8') as eval_file:
import csv
reader = csv.reader (data_file)
next (reader)
all_data = []
for line in reader:
all_data.append (line)
print (all_data[0])
new_file.write ('context\tsource\ttarget\tending\n')
from tqdm import tqdm
source_corpus = []
target_corpus = []
for raw_data in tqdm(all_data):
context = ' '.join(raw_data[2:5])
source = raw_data[5]
target = raw_data[5]
ending = raw_data[6]
context_tokens = tokenizer.encode (target, add_special_tokens=False)
out = sample_sequence (
model=model,
context=context_tokens,
num_samples=args.num_samples,
length=args.length,
temperature=args.temperature,
top_k=args.top_k,
top_p=args.top_p,
repetition_penalty=args.repetition_penalty,
is_xlnet=bool (args.model_type == "xlnet"),
is_xlm_mlm=is_xlm_mlm,
xlm_mask_token=xlm_mask_token,
xlm_lang=xlm_lang,
device=args.device,
)
out = out[:, len (context_tokens):].tolist ()
for o in out:
# text = tokenizer.decode(o, cleanI_up_tokenization_spaces=True)
text = tokenizer.decode (o)
text = text[: text.find (args.stop_token) if args.stop_token else None]
target = text.replace ('<|endoftext|>', '')
source_corpus.append(source)
target_corpus.append(target)
new_file.write (context +"\t"+ source+"\t"+target+"\t"+ending+"\n")
bleu_list = []
rouge_ = []
for source, target in zip (source_corpus, target_corpus):
bleu = sacrebleu.corpus_bleu (target, source)
bleu_list.append (bleu.precisions)
rouge = Rouge ()
for source, target in zip (source_corpus, target_corpus):
# rouge_l = compute_rouge_L(source, target)
rouge_x = rouge.get_scores (source, target)
rouge_1 = rouge_x[0]["rouge-1"]['f']
rouge_2 = rouge_x[0]["rouge-2"]['f']
rouge_l = rouge_x[0]["rouge-l"]['f']
rouge_.append ([rouge_1, rouge_2, rouge_l])
bleu_score = np.mean (bleu_list, axis=0)
rouge_score_ = np.mean (rouge_, axis=0)
print ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
print ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
print ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
print ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
print ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
print ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
eval_file.write ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
eval_file.write ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
eval_file.write ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
eval_file.write ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
eval_file.write ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
eval_file.write ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
if args.prompt:
break
# return target
if __name__ == '__main__':
main()
| [] |
2024-01-10 | IndexFziQ/CLSEG | src~run_generation_sample_tpl.py | #!/usr/bin/env python3
# coding=utf-8
# Copyright 2018 Google AI, Google Brain and Carnegie Mellon University Authors and the HuggingFace Inc. team.
# Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
""" Conditional text generation with the auto-regressive models of the library (GPT/GPT-2/CTRL/Transformer-XL/XLNet)
"""
from __future__ import absolute_import, division, print_function, unicode_literals
import argparse
import logging
from tqdm import trange
import torch
import torch.nn.functional as F
import numpy as np
from transformers import GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig
from transformers import GPT2LMHeadModel, GPT2Tokenizer
from transformers import OpenAIGPTLMHeadModel, OpenAIGPTTokenizer
from transformers import XLNetLMHeadModel, XLNetTokenizer
from transformers import TransfoXLLMHeadModel, TransfoXLTokenizer
from transformers import CTRLLMHeadModel, CTRLTokenizer
from transformers import XLMWithLMHeadModel, XLMTokenizer
# from tools.EA.get_concepts_from_behave import tokenization, lower_case
# from tools.EA.LIB.EVAL.bleu import compute_bleu
# from tools.EA.LIB.EVAL.rouge import compute_rouge_L
import sacrebleu
from rouge import Rouge
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.INFO)
logger = logging.getLogger(__name__)
MAX_LENGTH = int(10000) # Hardcoded max length to avoid infinite loop
ALL_MODELS = sum((tuple(conf.pretrained_config_archive_map.keys()) for conf in (GPT2Config, OpenAIGPTConfig, XLNetConfig, TransfoXLConfig, XLMConfig, CTRLConfig)), ())
MODEL_CLASSES = {
'gpt2': (GPT2LMHeadModel, GPT2Tokenizer),
'ctrl': (CTRLLMHeadModel, CTRLTokenizer),
'openai-gpt': (OpenAIGPTLMHeadModel, OpenAIGPTTokenizer),
'xlnet': (XLNetLMHeadModel, XLNetTokenizer),
'transfo-xl': (TransfoXLLMHeadModel, TransfoXLTokenizer),
'xlm': (XLMWithLMHeadModel, XLMTokenizer),
}
# Padding text to help Transformer-XL and XLNet with short prompts as proposed by Aman Rusia
# in https://github.com/rusiaaman/XLNet-gen#methodology
# and https://medium.com/@amanrusia/xlnet-speaks-comparison-to-gpt-2-ea1a4e9ba39e
# PADDING_TEXT = """ In 1991, the remains of Russian Tsar Nicholas II and his family
# (except for Alexei and Maria) are discovered.
# The voice of Nicholas's young son, Tsarevich Alexei Nikolaevich, narrates the
# remainder of the story. 1883 Western Siberia,
# a young Grigori Rasputin is asked by his father and a group of men to perform magic.
# Rasputin has a vision and denounces one of the men as a horse thief. Although his
# father initially slaps him for making such an accusation, Rasputin watches as the
# man is chased outside and beaten. Twenty years later, Rasputin sees a vision of
# the Virgin Mary, prompting him to become a priest. Rasputin quickly becomes famous,
# with people, even a bishop, begging for his blessing. <eod> </s> <eos>"""
def set_seed(args):
np.random.seed(args.seed)
torch.manual_seed(args.seed)
if args.n_gpu > 0:
torch.cuda.manual_seed_all(args.seed)
def top_k_top_p_filtering(logits, top_k=0, top_p=0.0, filter_value=-float('Inf')):
""" Filter a distribution of logits using top-k and/or nucleus (top-p) filtering
Args:
logits: logits distribution shape (batch size x vocabulary size)
top_k > 0: keep only top k tokens with highest probability (top-k filtering).
top_p > 0.0: keep the top tokens with cumulative probability >= top_p (nucleus filtering).
Nucleus filtering is described in Holtzman et al. (http://arxiv.org/abs/1904.09751)
From: https://gist.github.com/thomwolf/1a5a29f6962089e871b94cbd09daf317
"""
top_k = min(top_k, logits.size(-1)) # Safety check
if top_k > 0:
# Remove all tokens with a probability less than the last token of the top-k
indices_to_remove = logits < torch.topk(logits, top_k)[0][..., -1, None]
logits[indices_to_remove] = filter_value
if top_p > 0.0:
sorted_logits, sorted_indices = torch.sort(logits, descending=True)
cumulative_probs = torch.cumsum(F.softmax(sorted_logits, dim=-1), dim=-1)
# Remove tokens with cumulative probability above the threshold
sorted_indices_to_remove = cumulative_probs > top_p
# Shift the indices to the right to keep also the first token above the threshold
sorted_indices_to_remove[..., 1:] = sorted_indices_to_remove[..., :-1].clone()
sorted_indices_to_remove[..., 0] = 0
# scatter sorted tensors to original indexing
indices_to_remove = sorted_indices_to_remove.scatter(dim=1, index=sorted_indices, src=sorted_indices_to_remove)
logits[indices_to_remove] = filter_value
return logits
def sample_sequence(model, length, context, num_samples=1, temperature=1, top_k=0, top_p=0.0, repetition_penalty=1.0,
is_xlnet=False, is_xlm_mlm=False, xlm_mask_token=None, xlm_lang=None, device='cpu'):
context = torch.tensor(context, dtype=torch.long, device=device)
context = context.unsqueeze(0).repeat(num_samples, 1)
generated = context
# all_loss = []
with torch.no_grad():
for _ in range(length):
inputs = {'input_ids': generated}
if is_xlnet:
# XLNet is a direct (predict same token, not next token) and bi-directional model by default
# => need one additional dummy token in the input (will be masked), attention mask and target mapping (see model docstring)
input_ids = torch.cat((generated, torch.zeros((1, 1), dtype=torch.long, device=device)), dim=1)
perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float, device=device)
perm_mask[:, :, -1] = 1.0 # Previous tokens don't see last token
target_mapping = torch.zeros((1, 1, input_ids.shape[1]), dtype=torch.float, device=device)
target_mapping[0, 0, -1] = 1.0 # predict last token
inputs = {'input_ids': input_ids, 'perm_mask': perm_mask, 'target_mapping': target_mapping}
if is_xlm_mlm and xlm_mask_token:
# XLM MLM models are direct models (predict same token, not next token)
# => need one additional dummy token in the input (will be masked and guessed)
input_ids = torch.cat((generated, torch.full((1, 1), xlm_mask_token, dtype=torch.long, device=device)), dim=1)
inputs = {'input_ids': input_ids}
if xlm_lang is not None:
inputs["langs"] = torch.tensor([xlm_lang] * inputs["input_ids"].shape[1], device=device).view(1, -1)
outputs = model(**inputs) # Note: we could also use 'past' with GPT-2/Transfo-XL/XLNet/CTRL (cached hidden-states)
next_token_logits = outputs[0][:, -1, :] / (temperature if temperature > 0 else 1.)
# print(next_token_logits.size())
# tmp_eval_loss = outputs[0][:, :, -1][-1][-1]
# print(outputs[0][:, :, -1][-1])
# print (tmp_eval_loss.size ())
# cur_loss = np.abs(tmp_eval_loss.item())
# print(cur_loss)
# all_loss.append(cur_loss)
# repetition penalty from CTRL (https://arxiv.org/abs/1909.05858)
for i in range(num_samples):
for _ in set(generated[i].tolist()):
next_token_logits[i, _] /= repetition_penalty
filtered_logits = top_k_top_p_filtering(next_token_logits, top_k=top_k, top_p=top_p)
if temperature == 0: # greedy sampling:
next_token = torch.argmax(filtered_logits, dim=-1).unsqueeze(-1)
else:
next_token = torch.multinomial(F.softmax(filtered_logits, dim=-1), num_samples=1)
generated = torch.cat((generated, next_token), dim=1)
# print(next_token.item())
if next_token.item() == 29:
break
# print(all_loss)
# avg_loss = np.mean (np.array (all_loss))
# ppl = np.exp(avg_loss)
# print('test_loss (bpe): %.4f, test_perplexity: %.4f' % (avg_loss, ppl))
return generated
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--model_type", default='gpt2', type=str, required=False,
help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
parser.add_argument("--model_name_or_path", default='/data/xieyuqiang/story_comprehension/checkpoints_ft_with_roc/lmft_lm_gpt2_roc_gn1_bp1_gc32_lr1_l100_e3_seed42_cgn1', type=str, required=False,
help="Path to pre-trained model or shortcut name selected in the list: " + ", ".join(ALL_MODELS))
parser.add_argument("--source_text_path", type=str, default="/data/xieyuqiang/story_comprehension/data/roc/roc_train.csv")
parser.add_argument("--prompt", type=str, default=" ")
parser.add_argument("--padding_text", type=str, default="")
parser.add_argument("--xlm_lang", type=str, default="", help="Optional language when used with the XLM model.")
parser.add_argument("--length", type=int, default=30)
parser.add_argument("--batch", type=int, default=2)
parser.add_argument("--num_samples", type=int, default=1)
parser.add_argument("--temperature", type=float, default=0,
help="temperature of 0 implies greedy sampling")
parser.add_argument("--repetition_penalty", type=float, default=1.2,
help="primarily useful for CTRL model; in that case, use 1.2")
parser.add_argument("--top_k", type=int, default=1)
parser.add_argument("--top_p", type=float, default=0.9)
parser.add_argument("--no_cuda", action='store_true',
help="Avoid using CUDA when available")
parser.add_argument('--seed', type=int, default=42,
help="random seed for initialization")
parser.add_argument('--stop_token', type=str, default='<|endoftext|>',
help="Token at which text generation is stopped")
parser.add_argument ('--style', type=str, default='temporal',
help="The style for generating the pseudo wrong endings: temporal/causal")
args = parser.parse_args()
args.device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
args.n_gpu = torch.cuda.device_count()
set_seed(args)
args.model_type = args.model_type.lower()
model_class, tokenizer_class = MODEL_CLASSES[args.model_type]
tokenizer = tokenizer_class.from_pretrained(args.model_name_or_path)
model = model_class.from_pretrained(args.model_name_or_path)
model.to(args.device)
model.eval()
if args.length < 0 and model.config.max_position_embeddings > 0:
args.length = model.config.max_position_embeddings
elif 0 < model.config.max_position_embeddings < args.length:
args.length = model.config.max_position_embeddings # No generation bigger than model size
elif args.length < 0:
args.length = MAX_LENGTH # avoid infinite loop
logger.info(args)
if args.model_type in ["ctrl"]:
if args.temperature > 0.7:
logger.info('CTRL typically works better with lower temperatures (and lower top_k).')
while True:
xlm_lang = None
# XLM Language usage detailed in the issues #1414
if args.model_type in ["xlm"] and hasattr(tokenizer, 'lang2id') and hasattr(model.config, 'use_lang_emb') \
and model.config.use_lang_emb:
if args.xlm_lang:
language = args.xlm_lang
else:
language = None
while language not in tokenizer.lang2id.keys():
language = input("Using XLM. Select language in " + str(list(tokenizer.lang2id.keys())) + " >>> ")
xlm_lang = tokenizer.lang2id[language]
# XLM masked-language modeling (MLM) models need masked token (see details in sample_sequence)
is_xlm_mlm = args.model_type in ["xlm"] and 'mlm' in args.model_name_or_path
if is_xlm_mlm:
xlm_mask_token = tokenizer.mask_token_id
else:
xlm_mask_token = None
raw_text = args.prompt if args.prompt else input("Model prompt >>> ")
if args.model_type in ["transfo-xl", "xlnet"]:
# Models with memory likes to have a long prompt for short inputs.
raw_text = (args.padding_text if args.padding_text else PADDING_TEXT) + raw_text
context_tokens = tokenizer.encode(raw_text, add_special_tokens=False)
if args.model_type == "ctrl":
if not any(context_tokens[0] == x for x in tokenizer.control_codes.values()):
logger.info("WARNING! You are not starting your generation from a control code so you won't get good results")
with open (args.source_text_path, 'r', encoding='utf-8') as data_file, \
open (args.source_text_path + "_tpl_generated.tsv", 'w', encoding='utf-8') as new_file, \
open (args.source_text_path + "_tpl_eval.tsv", 'w', encoding='utf-8') as eval_file:
import csv
reader = csv.reader (data_file)
next (reader)
all_data = []
for line in reader:
all_data.append (line)
print (all_data[0])
new_file.write ('context\tsource\ttarget\n')
from tqdm import tqdm
source_corpus = []
target_corpus = []
for raw_data in tqdm(all_data):
context = ' '.join(raw_data[2:6])
source = raw_data[6]
import random
list = raw_data[2:6]
random.shuffle(list)
target = ' '.join(list)
context_tokens = tokenizer.encode (target, add_special_tokens=False)
out = sample_sequence (
model=model,
context=context_tokens,
num_samples=args.num_samples,
length=args.length,
temperature=args.temperature,
top_k=args.top_k,
top_p=args.top_p,
repetition_penalty=args.repetition_penalty,
is_xlnet=bool (args.model_type == "xlnet"),
is_xlm_mlm=is_xlm_mlm,
xlm_mask_token=xlm_mask_token,
xlm_lang=xlm_lang,
device=args.device,
)
out = out[:, len (context_tokens):].tolist ()
for o in out:
# text = tokenizer.decode(o, cleanI_up_tokenization_spaces=True)
text = tokenizer.decode (o)
text = text[: text.find (args.stop_token) if args.stop_token else None]
target = text.replace ('<|endoftext|>', '')
source_corpus.append(source)
target_corpus.append(target)
new_file.write (context+"\t"+source+"\t"+target+"\n")
bleu_list = []
rouge_ = []
for source, target in zip (source_corpus, target_corpus):
bleu = sacrebleu.corpus_bleu (target, source)
bleu_list.append (bleu.precisions)
rouge = Rouge ()
for source, target in zip (source_corpus, target_corpus):
# rouge_l = compute_rouge_L(source, target)
rouge_x = rouge.get_scores (source, target)
rouge_1 = rouge_x[0]["rouge-1"]['f']
rouge_2 = rouge_x[0]["rouge-2"]['f']
rouge_l = rouge_x[0]["rouge-l"]['f']
rouge_.append ([rouge_1, rouge_2, rouge_l])
bleu_score = np.mean (bleu_list, axis=0)
rouge_score_ = np.mean (rouge_, axis=0)
print ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
print ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
print ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
print ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
print ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
print ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
eval_file.write ("BLEU-1 score: " + str (bleu_score[0]) + "\n")
eval_file.write ("BLEU-2 score: " + str (bleu_score[1]) + "\n")
eval_file.write ("BLEU-4 score: " + str (bleu_score[3]) + "\n")
eval_file.write ("Rouge-1 score: " + str (rouge_score_[0] * 100) + "\n")
eval_file.write ("Rouge-2 score: " + str (rouge_score_[1] * 100) + "\n")
eval_file.write ("Rouge-L score: " + str (rouge_score_[2] * 100) + "\n")
if args.prompt:
break
# return target
if __name__ == '__main__':
main()
| [] |
2024-01-10 | adrianmarino/thesis-paper | lib~recommender~chatbot~movie~movie_recommendations_output_parser.py | from langchain.schema import BaseOutputParser
from bunch import Bunch
from typing import List
import util as ut
import re
import logging
from pydantic import BaseModel, PrivateAttr
class MovieRecommendationsOutputParser(BaseOutputParser[List[str]]):
__list_size: int = PrivateAttr(True)
def __init__(self, list_size):
super().__init__()
self.__list_size = list_size
def parse(self, text: str) -> List[str]:
results = []
for idx in range(self.__list_size):
try:
line = ut.between(text, f'{idx+1}.', f'{idx+2}.')
except Exception as e:
logging.error(f'Error to parse response. {e}')
return results
data = re.split(r'\(|\)\:', line)
if len(data) <= 1:
continue
results.append({
'title' : data[0].strip().replace('"', '').capitalize(),
'description': data[2].strip().capitalize(),
'release' : int(data[1].strip())
})
return { 'recommendations': results } | [] |
2024-01-10 | adrianmarino/thesis-paper | lib~recommender~chatbot~stateless~chat_bot_response_factory.py | from .chat_bot_response import ChatBotResponse
import logging
from langchain_core.messages import SystemMessage
class ChatBotResponseFactory:
def __init__(self, output_parser, template_factory):
self._output_parser = output_parser
self._template_factory = template_factory
self._logger = logging.getLogger(self.__class__.__name__)
def create(self, params, response):
metadata = self._output_parser.parse(response)
prompt = self._template_factory.invoke(params)
metadata['params'] = params
metadata['prompts'] = list(map(lambda it: {'type': it.__class__.__name__, 'content': it.content}, prompt.messages))
return ChatBotResponse(response, metadata)
| [] |
2024-01-10 | adrianmarino/thesis-paper | lib~model~llm~chain_builder.py | from langchain.callbacks.manager import CallbackManager
from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler
from langchain.llms import Ollama
from langchain.chat_models import ChatOllama
from langchain.prompts import ChatPromptTemplate
class OllamaModelBuilder:
@staticmethod
def chat(model='movie_recommender', verbose=False):
callback_manager = CallbackManager([StreamingStdOutCallbackHandler()]) if verbose else None
return ChatOllama(model=model, callback_manager=callback_manager)
@staticmethod
def default(model='movie_recommender', verbose=False):
callback_manager = CallbackManager([StreamingStdOutCallbackHandler()]) if verbose else None
return Ollama(model=model, callback_manager=callback_manager)
class OllamaChatPromptTemplateFactory:
@staticmethod
def create(prompt):
return ChatPromptTemplate.from_messages([
('system', prompt),
('human', '{request}')
])
class OllamaChainBuilder:
@staticmethod
def default(model, prompt, verbose=False):
return OllamaChatPromptTemplateFactory.create(prompt) | \
OllamaModelBuilder.default(model, verbose)
@staticmethod
def chat(model, prompt, verbose=False):
return OllamaChatPromptTemplateFactory.create(prompt) | \
OllamaModelBuilder.chat(model, verbose)
| [
"[('system', PLACEHOLDER), ('human', '{request}')]"
] |
2024-01-10 | TheItCrOw/R.O.B.E.R.T. | src~training~rob_test_pipeline.py | from db import db
from torchmetrics.text.rouge import ROUGEScore
from nltk.translate.bleu_score import sentence_bleu
import torch
import time
import random
import sys
import numpy as np
import json
import os
import gc
import openai
from datetime import datetime
from chat_gpt3 import chat_gpt3
sys.path.append(os.path.join(os.path.dirname(os.path.abspath(__file__)), '../..'))
sys.path.append(os.path.join(os.path.dirname(os.path.abspath(__file__)), '../../src/robert'))
from src.robert.robert_lora import robert
from src.robert.robert_lora import build_finetuned_path
db = db()
chatgpt_model = chat_gpt3()
# Add here all models you want. Set the "test" property to false if
# you dont want that model to be tested in the next run.
test_models = [
{
'name': 'robert_1k',
'desc': 'Trained on 1k base chatgpt ds',
'test': True
},
{
'name': 'robert_5k',
'desc': 'Trained on 5k base chatgpt ds',
'test': True
},
{
'name': 'robert_5k_chat_only',
'desc': 'Trained on 5k chatting chatgpt ds',
'test': True
},
{
'name': 'robert_21k_chat_only_para',
'desc': 'Trained on 5k chatting chatgpt ds + 16k chatting paraphrased',
'test': True
},
{
'name': 'robert_6k_para_chat',
'desc': 'Trained on 6k base chatgpt ds + 12k paraphrased + 5k chatting ds',
'test': True
},
{
'name': 'robert_10k_gpt4all',
'desc': 'Trained on 10k base gpt4all ds',
'test': True
},
{
'name': 'robert_10k',
'desc': 'Trained on 10k base chatgpt ds',
'test': True
},
{
'name': 'robert_45k_chat_para',
'desc': 'Trained on 12k base chatgpt ds + 12k paraphrased + 5 chatting ds + 16k paraphrased',
'test': True
}
]
base_datasets_count = 1000
chat_datasets_count = 1000
done_models = []
include_rouge = False
include_chatgpt = False
generate_rateable_datasets = True
generate_student_instructions = False
generate_student_dialogs = False
student_instruction = """Formulate an instruction or a question towards Rob about the given input"""
student_dialog = """Proactively continue the dialog provided in the input as the student"""
def get_parameters():
params = []
f = open("parameters.txt", "r", encoding='utf-8')
for line in f.readlines():
params.append(str(line.strip()))
return params
def test_instruction_following_capabilities(model_name, my_robert):
'''Test a model for its instruction following capabilities'''
# First step: calculate a rogue score. Use chatgpt datasets for that.
print("\n")
print("----- Testing instruction following capabilities of " + model_name)
db_name = "chatgpt"
if("gpt4all" in model_name):
db_name = "gpt4all"
base_datasets = db.get_base_datasets("chatgpt", base_datasets_count)
print("Going through " + str(base_datasets_count) + " datasets.")
count = 1
rouge = ROUGEScore()
# In these tests, we dont want context or anything. Just instruction
# following capabilities
for data in base_datasets:
target = data['output']
prediction = my_robert.get_response(data['instruction'], use_context=False)
progress = "Done with " + str(round(100/base_datasets_count*count, 1)) + "%"
score = rouge(prediction, target)
bleu_score = float(sentence_bleu([target], prediction))
db.insert_rogue_score(score, model_name, data['instruction'],
target, prediction, data['input'], bleu_score)
count = count + 1
#sys.stdout.write('\r')
sys.stdout.write('Done with ' + str(count) + ' datasets. ' + progress)
#sys.stdout.flush()
def test_dialog_capabilities(model_name, my_robert):
print("\n")
print("----- Testing dialog capabilities of " + model_name)
chat_datasets = db.get_chatting_datasets_with_input(chat_datasets_count, False)
print("Going through " + str(chat_datasets_count) + " datasets.")
count = 1
rouge = ROUGEScore()
for data in chat_datasets:
# For here, we want to work with the input as context.
target = data['output']
my_robert.set_context(data['input'].split('\n'))
prediction = my_robert.get_response(data['instruction'])
progress = "Done with " + str(round(100/chat_datasets_count*count, 1)) + "%"
score = rouge(prediction, target)
bleu_score = float(sentence_bleu([target], prediction))
db.insert_rogue_score(score, model_name, data['instruction'],
target, prediction, data['input'], bleu_score)
count = count + 1
# Decomment the two lines below if you dont want a new line in the console.
# sys.stdout.write('\r')
sys.stdout.write('Done with ' + str(count) + ' datasets. ' + progress)
# sys.stdout.flush()
def build_rateable_dataset(model_name, my_robert):
print("\n")
print("----- Building rateable datasets for " + model_name)
# First, the instructions.
student_instructions = db.get_student_instructions(9999)
print("Going through " + str(len(student_instructions)) + " datasets.")
count = 1
student_instructions = []
for data in student_instructions:
# For here, we want to work with the input as context.
my_robert.clear_context()
# the output of a student instruction dataset is a question for Rob
robs_answer = my_robert.get_response(data['output'])
dataset = {
'instruction': data['output'],
'output': robs_answer,
'input': '',
'context': data['context'],
'model': model_name,
'type': 'instruction',
'rating': 0,
'comment': '',
"isRated": False
}
db.get_database()['rateable_test_datasets'].insert_one(dataset)
count = count + 1
# Decomment the two lines below if you dont want a new line in the console.
sys.stdout.write('Done with ' + str(count) + ' datasets. ')
# Do dialogs as well here!
print("Doing dialogs now")
student_dialogs = db.get_filtered_student_dialogs(50)
print("Going through " + str(len(student_dialogs)) + " datasets.")
count = 1
for data in student_dialogs:
history = data['context'].split('\n')
instruction = history[len(history) - 1]
context = history[:-1]
# For here, we want to work with the input as context.
my_robert.set_context(context)
# the output of a student instruction dataset is a question for Rob
robs_answer = my_robert.get_response(instruction)
dataset = {
'instruction': instruction,
'output': robs_answer,
'input': data['context'],
'context': '',
'model': model_name,
'type': 'dialog',
'rating': 0,
'comment': '',
"isRated": False
}
db.get_database()['rateable_test_datasets'].insert_one(dataset)
count = count + 1
# Decomment the two lines below if you dont want a new line in the console.
sys.stdout.write('Done with ' + str(count) + ' datasets. ')
def start_test_pipeline():
'''
Starts a test pipeline by testing the given robert models with
various prompts, dialogs and questions.
'''
# We go through each model and test them
tries = 3
to_test = [m for m in test_models if m['test'] is True]
print(str(datetime.now()))
print("===================== Starting a new pipeline =====================")
print("For that, we have " + str(len(to_test)) + " models to test.\n\n")
for model in to_test:
try:
if(model['name'] in done_models):
continue
my_robert = robert(finetuned_path=build_finetuned_path(model['name']),
context_amount=4, dtype="bfloat16")
print("Doing " + model['name'] + " now:")
if(include_rouge):
test_instruction_following_capabilities(model['name'], my_robert)
test_dialog_capabilities(model['name'], my_robert)
if(generate_rateable_datasets):
build_rateable_dataset(model['name'], my_robert)
print("Done with " + model['name'] + "!\n")
done_models.append(model['name'])
# Free the gpu from the model
my_robert = ""
gc.collect()
torch.cuda.empty_cache()
# I hope this gives pytorch enough time to free the memory. Otherwise, we crash here.
time.sleep(5)
except Exception as ex:
print("Caught en exception")
print(ex)
# We want to try again if an error occured because it could be just
# missing memory.
if(tries > 0):
print("Retrying again in 10 seconds.")
time.sleep(10)
tries = tries - 1
start_test_pipeline()
print(str(datetime.now()))
print("===================== Done with the pipeline =====================")
prompt_text = '''
Rob knows the following:
[CONTEXT]
A student asked Rob, a virtual reality assistant:
[QUESTION]
Rob answered with:
[ANSWER]
Rob should only answer when he truly knows the answer. Otherwise he should excuse himself.
Rate Robs answer with a number from 1 to 10. Rate harshly!
Print only the number.'''
dialog_prompt_text = '''
A student is having a conversation with Rob, the virtual reality assistant. This is the chat history:
[HISTORY]
Rob knows the following:
[CONTEXT]
Rob continued the dialog with:
[ANSWER]
Rate Robs answer with a number from 1 to 10. Focus heavily on whether the answer has correct information given Robs knowledge! If the answer is false, give at max 3 points! If the answer is nonsensical give 1 point!
Print only the number.
'''
def start_chatgpt_pipeline():
'''ChatGPT will give each answer a score.'''
scores = db.get_rouge_scores(99999)
count = 0
for score in scores:
test_model = [m for m in test_models if m['name'] == score['model']][0]
if(test_model['test'] is False):
print("Skipping for " + test_model['name'])
continue
answer = ''
if(score['inp'] == ''):
# time.sleep(0.5)
# This is an instruction following test
prompt = prompt_text.replace('[QUESTION]', score['instruction'])
prompt = prompt.replace('[CONTEXT]', "\n".join(score['context'].split('[ITEM]')))
prompt = prompt.replace('[ANSWER]', score['prediction'])
print(prompt)
answer = chatgpt_model.get_response(prompt).strip().replace("\n", "")
else:
# This is a dialog test
prompt = dialog_prompt_text.replace('[HISTORY]', score['inp'])
prompt = prompt.replace('[CONTEXT]', "\n".join(score['context'].split('[ITEM]')))
prompt = prompt.replace('[ANSWER]', score['prediction'])
print(prompt)
answer = chatgpt_model.get_response(prompt).strip().replace("\n", "")
try:
s = int(answer)
print("========================")
print("Score: " + str(s))
print("========================")
db.insert_chatgpt_score(s, score['model'], score['instruction'],
score['prediction'], score['inp'],
score['context'], score)
except Exception as ex:
print(ex)
print("Couldn't convert to int: " + answer)
count = count + 1
print("Done with " + str(count))
def start_student_instruction_generation():
'''Creates X amount of new instructions by a student for robert'''
params = get_parameters()
my_student = robert(finetuned_path=build_finetuned_path("student_24k_para"),
is_student=True, context_amount=4)
for i in range(100):
context = random.sample(params, random.randint(1, 2))
my_student.set_context(context)
# The response of the student model is an instruction for Rob
answer = my_student.get_response(student_instruction)
dataset = {
"instruction": student_instruction,
"output": answer,
"context": "[ITEM]".join(context),
"model": "student_24k_para"
}
db.get_database()['student_instructions'].insert_one(dataset)
def start_student_dialog_generation():
'''Creates X amount of new instructions by a student for robert'''
params = get_parameters()
my_student = robert(finetuned_path=build_finetuned_path("student_24k_para"),
is_student=True, context_amount=4, dtype="bfloat16")
for i in range(200):
# context here is the chat history. We have none for now.
context = random.sample(params, random.randint(1, 2))
history = []
my_student.set_context(context)
# The response of the student model is an instruction for Rob
answer = my_student.get_response(student_instruction)
history.append("Student: " + answer)
dataset = {
"instruction": student_dialog,
"output": answer,
"context": "\n".join(history),
"model": "student_24k_para",
"last_turn": "Student",
"turns": 1
}
db.get_database()['student_dialogs'].insert_one(dataset)
def continue_student_dialog_generation():
turn = 4
dialogs = db.get_student_dialogs_by_turn(9999, turn)
print("Found " + str(len(dialogs)) + " dialogs of turn " + str(turn))
last_turn = dialogs[0]["last_turn"]
print("Last turn was: " + str(last_turn))
my_model = ''
speaker = ''
if(last_turn == "Student"):
print("Initing Robert as our model")
my_model = robert(finetuned_path=build_finetuned_path("robert_21k_chat_only_para"),
context_amount=2, dtype="bfloat16")
speaker = "Rob"
else:
print("Initing the student as our model")
my_model = robert(finetuned_path=build_finetuned_path("student_22k_chat_para"),
is_student=True, context_amount=2, dtype="bfloat16")
speaker = "Student"
# Now through each dialog, continue it.
for dialog in dialogs:
history = dialog['context'].split('\n')
# If we have a history, then pass in the chat history
# Robert doesnt take the last instruction into the context
if(last_turn == "Student"):
my_model.set_context(dialog['context'].split('\n')[:-1])
else:
my_model.set_context(dialog['context'].split('\n'))
# The student gets the default prompt
prompt = student_dialog
# Rob gets the last question of the student as the input
if(last_turn == "Student"):
prompt = dialog["output"]
answer = my_model.get_response(prompt)
history.append(speaker + ": " + answer)
dataset = {
"instruction": prompt,
"output": answer,
"context": "\n".join(history),
"model": "robert_21k_chat_only_para/student_22k_chat_para",
"last_turn": speaker,
"context_size": 2,
"turns": turn + 1
}
db.get_database()['student_dialogs'].insert_one(dataset)
if __name__ == "__main__":
db.init()
print("Database initiated.")
chatgpt_model.init(openai)
print("Chatgpt initiated.")
start_test_pipeline()
# start_chatgpt_pipeline()
if(generate_student_instructions):
start_student_instruction_generation()
if(generate_student_dialogs):
# start_student_dialog_generation()
continue_student_dialog_generation()
| [
"inp",
"\nA student is having a conversation with Rob, the virtual reality assistant. This is the chat history:\n[HISTORY]\n\nRob knows the following:\n[CONTEXT]\n\nRob continued the dialog with:\n[ANSWER]\n\nRate Robs answer with a number from 1 to 10. Focus heavily on whether the answer has correct information given Robs knowledge! If the answer is false, give at max 3 points! If the answer is nonsensical give 1 point!\nPrint only the number.\n",
"\n",
"instruction",
"[QUESTION]",
"prediction",
"\nRob knows the following:\n[CONTEXT]\n\nA student asked Rob, a virtual reality assistant:\n[QUESTION]\n\nRob answered with:\n[ANSWER]\n\nRob should only answer when he truly knows the answer. Otherwise he should excuse himself.\nRate Robs answer with a number from 1 to 10. Rate harshly!\nPrint only the number.",
"context"
] |
2024-01-10 | civrealm/civrealm | src~civrealm~agents~civ_autogpt~GPTAgent.py | import os
import openai
import time
import random
import json
import requests
import warnings
from func_timeout import func_timeout
from func_timeout import FunctionTimedOut
from civrealm.agents.civ_autogpt.utils.num_tokens_from_messages import num_tokens_from_messages
from civrealm.agents.civ_autogpt.utils.interact_with_llm import send_message_to_llama, send_message_to_vicuna
from civrealm.agents.civ_autogpt.utils.extract_json import extract_json
from civrealm.agents.civ_autogpt.utils.interact_with_llm import send_message_to_llama
from langchain.chat_models import ChatOpenAI
from langchain.chains import ConversationChain
from langchain.memory import ConversationSummaryBufferMemory
import pinecone
from langchain.document_loaders import DirectoryLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.embeddings.openai import OpenAIEmbeddings
from langchain.vectorstores import Pinecone
from langchain.llms import OpenAI
from langchain.chains.question_answering import load_qa_chain
warnings.filterwarnings('ignore')
cwd = os.getcwd()
openai_keys_file = os.path.join(cwd, "src/civrealm/agents/civ_autogpt/openai_keys.txt")
task_prompt_file = os.path.join(cwd, "src/civrealm/agents/civ_autogpt/prompts/task_prompt.txt")
state_prompt_file = os.path.join(cwd, "src/civrealm/agents/civ_autogpt/prompts/state_prompt.txt")
TOKEN_LIMIT_TABLE = {
"gpt-4": 8192,
"gpt-4-0314": 8192,
"gpt-4-32k": 32768,
"gpt-4-32k-0314": 32768,
"gpt-3.5-turbo-0301": 4096,
"gpt-3.5-turbo": 4096,
"gpt-35-turbo": 4096,
"text-davinci-003": 4080,
"code-davinci-002": 8001,
"text-davinci-002": 2048,
"vicuna-33B": 2048,
"Llama2-70B-chat": 2048,
"gpt-35-turbo-16k": 16384
}
class GPTAgent:
"""
This agent uses GPT-3 to generate actions.
"""
def __init__(self, model = "gpt-3.5-turbo"):
self.model = model
self.dialogue = []
self.agent_index = None
self.taken_actions_list = []
self.message = ''
self.openai_api_keys = self.load_openai_keys()
self.state_prompt = self._load_state_prompt()
self.task_prompt = self._load_task_prompt()
self.update_key()
llm = ChatOpenAI(temperature=0.7, openai_api_key = openai.api_key)
self.memory = ConversationSummaryBufferMemory(llm=llm, max_token_limit=500)
self.chain = load_qa_chain(OpenAI(model_name="gpt-3.5-turbo"), chain_type="stuff")
pinecone.init(
api_key=os.environ["MY_PINECONE_API_KEY"], environment=os.environ["MY_PINECONE_ENV"]
)
# embeddings = OpenAIEmbeddings(model="text-embedding-ada-002")
self.index = Pinecone.from_existing_index(index_name='langchain-demo', embedding=OpenAIEmbeddings(model="text-embedding-ada-002"))
def get_similiar_docs(self, query, k=2, score=False):
index = self.index
if score:
similar_docs = index.similarity_search_with_score(query, k=k)
else:
similar_docs = index.similarity_search(query, k=k)
return similar_docs
def get_answer(self, query):
similar_docs = self.get_similiar_docs(query)
while True:
try:
answer = self.chain.run(input_documents=similar_docs, question=query)
break
except Exception as e:
print(e)
self.update_key()
return answer
def change_api_base(self, to_type):
if to_type == 'azure':
openai.api_type = os.environ["ASURE_OPENAI_API_TYPE"]
openai.api_version = os.environ["ASURE_OPENAI_API_VERSION"]
openai.api_base = os.environ["ASURE_OPENAI_API_BASE"]
openai.api_key = os.environ["ASURE_OPENAI_API_KEY"]
else:
openai.api_type = "open_ai"
openai.api_version = ""
openai.api_base = 'https://api.openai.com/v1'
self.update_key()
@staticmethod
def load_openai_keys():
with open(openai_keys_file, "r") as f:
context = f.read()
return context.split('\n')
def _load_state_prompt(self):
with open(state_prompt_file, "r") as f:
self.state_prompt = f.read()
self.dialogue.append({"role": "user", "content": self.state_prompt})
return self.state_prompt
def _load_task_prompt(self):
# print("reading task prompt from {}".format(task_prompt_file))
with open(task_prompt_file, "r") as f:
self.task_prompt = f.read()
self.dialogue.append({"role": "user", "content": self.task_prompt})
def update_key(self):
curr_key = self.openai_api_keys[0]
openai.api_key = os.environ["OPENAI_API_KEY"] = curr_key
self.openai_api_keys.pop(0)
self.openai_api_keys.append(curr_key)
def check_if_the_taken_actions_list_needed_update(self, check_content, check_num = 3, top_k_charactors = 0):
if top_k_charactors == 0:
if len(self.taken_actions_list) >= check_num:
for i in range(check_num):
if self.taken_actions_list[-1 - i] == check_content:
if i == check_num - 1:
return True
else:
continue
else:
return False
return False
else:
if len(self.taken_actions_list) >= check_num:
for i in range(check_num):
if self.taken_actions_list[-1 - i][:top_k_charactors] == check_content:
if i == check_num - 1:
return True
else:
continue
else:
return False
return False
def process_command(self, command_json, obs_input_prompt, current_unit_name, current_avail_actions):
'''
manualAndHistorySearch
askCurrentGameInformation
finalDecision
'''
try:
command_input = command_json['command']['input']
command_name = command_json['command']['name']
except Exception as e:
print(e)
print('Not in given json format, retrying...')
if random.random() > 0.5:
self.update_dialogue(obs_input_prompt + ' CAUTION: You should strictly follow the JSON format as described above!', pop_num = 2)
return None
else:
self.update_dialogue(obs_input_prompt, pop_num = 2)
return None
if (command_name == 'finalDecision') and command_input['action']:
# Here to implement controller
print(command_input)
exec_action = command_input['action']
if command_input['action'] not in current_avail_actions:
print('Not in the available action list, retrying...')
# Here is the most time taking place.
if random.random() > 0.5:
self.update_dialogue(obs_input_prompt + ' CAUTION: You can only answer action from the available action list!', pop_num = 2)
return None
else:
self.update_dialogue(obs_input_prompt, pop_num = 2)
return None
else:
self.taken_actions_list.append(command_input['action'])
if self.check_if_the_taken_actions_list_needed_update('goto', 15, 4) or self.check_if_the_taken_actions_list_needed_update('keep_activity', 15, 0):
self.update_dialogue(obs_input_prompt + \
' CAUTION: You have chosen too much goto operation. You should try various kind of action. Try to look for more information in manual!', pop_num = 2)
# command_input = new_response['command']['input']
self.taken_actions_list = []
return None
else:
print('exec_action:', exec_action)
return exec_action
elif command_name == 'askCurrentGameInformation' and command_input['query']:
print(command_input)
self.taken_actions_list.append('askCurrentGameInformation')
return None
elif command_name == 'manualAndHistorySearch' and command_input['look_up']:
print(command_input)
if self.check_if_the_taken_actions_list_needed_update('look_up', 3, 0):
answer = 'Too many look for! Now You should give me an action at once!'
print(answer)
self.dialogue.append({'role': 'user', 'content': answer})
self.taken_actions_list = []
else:
query = command_input['look_up']
answer = self.get_answer(query)
print('answer:', answer)
if random.random() > 0.5:
self.dialogue.append({'role': 'user', 'content': answer + ' Now you get the needed information from the manual, give me your action answer.'})
else:
self.dialogue.append({'role': 'user', 'content': answer})
self.memory.save_context({'assistant': query}, {'user': answer})
self.taken_actions_list.append('look_up')
return None
else:
print('error')
print(command_json)
if random.random() < 0.8:
self.dialogue.pop(-1)
else:
self.dialogue.append({'role': 'user', 'content': 'You should only use the given commands!'})
# self.update_dialogue(obs_input_prompt, pop_num = 1)
return None
def query(self, stop = None, temperature = 0.7, top_p = 0.95):
self.restrict_dialogue()
# TODO add retreat mech to cope with rate limit
self.update_key()
if self.model in ['gpt-3.5-turbo-0301', 'gpt-3.5-turbo']:
response = openai.ChatCompletion.create(
model=self.model,
messages=self.dialogue,
temperature = temperature,
top_p = top_p
)
elif self.model in ["gpt-35-turbo", "gpt-35-turbo-16k"]:
self.change_api_base('azure')
response = openai.ChatCompletion.create(
engine=self.model,
messages=self.dialogue
)
self.change_api_base('open_ai')
elif self.model in ['vicuna-33B']:
local_config = {'temperature':temperature, 'top_p': top_p, 'repetition_penalty': 1.1}
response = send_message_to_vicuna(self.dialogue, local_config)
elif self.model in ['Llama2-70B-chat']:
local_config = {'temperature':temperature, 'top_p': top_p, 'repetition_penalty': 1.1}
response = send_message_to_llama(self.dialogue, local_config)
else:
response = openai.Completion.create(
model=self.model,
prompt=str(self.dialogue),
max_tokens=1024,
stop=stop,
temperature=temperature,
n = 1,
top_p = top_p
)
return response
def update_dialogue(self, chat_content, pop_num = 0):
if pop_num != 0:
for i in range(pop_num):
self.dialogue.pop(-1)
return self.communicate(chat_content)
# @staticmethod
def parse_response(self, response):
if self.model in ['gpt-3.5-turbo-0301', 'gpt-3.5-turbo', 'gpt-4', 'gpt-4-0314']:
return dict(response["choices"][0]["message"])
elif self.model in ["gpt-35-turbo", "gpt-35-turbo-16k"]:
try:
ans = json.dumps(eval(extract_json(response['choices'][0]['message']['content'])))
except:
return response["choices"][0]["message"]
return {'role': 'assistant', 'content': ans}
elif self.model in ['vicuna-33B', 'Llama2-70B-chat']:
return {'role': 'assistant', 'content': extract_json(response)}
else:
# self.model in ['text-davinci-003', 'code-davinci-002']
return {'role': 'assistant', 'content': response["choices"][0]["text"][2:]}
def restrict_dialogue(self):
limit = TOKEN_LIMIT_TABLE[self.model]
"""
The limit on token length for gpt-3.5-turbo-0301 is 4096.
If token length exceeds the limit, we will remove the oldest messages.
"""
# TODO validate that the messages removed are obs and actions
while num_tokens_from_messages(self.dialogue) >= limit:
temp_message = {}
user_tag = 0
if self.dialogue[-1]['role'] == 'user':
temp_message = self.dialogue[-1]
user_tag = 1
while len(self.dialogue) >= 3:
self.dialogue.pop(-1)
while True:
try:
self.dialogue.append({'role': 'user', 'content': 'The former chat history can be summarized as: \n' + self.memory.load_memory_variables({})['history']})
break
except Exception as e:
print(e)
self.update_key()
if user_tag == 1:
self.dialogue.append(temp_message)
user_tag = 0
def communicate(self, content, parse_choice_tag = False):
self.dialogue.append({"role": "user", "content": content})
while True:
try:
raw_response = self.query()
self.message = self.parse_response(raw_response)
self.dialogue.append(self.message)
response = self.message["content"]
# print('response:', response)
try:
response = json.loads(response)
except Exception as e:
# self.dialogue.pop(-1)
print(e)
self.dialogue.append({"role": "user", \
"content": "You should only respond in JSON format as described"})
print('Not response json, retrying...')
continue
break
except Exception as e:
print(e)
print("retrying...")
# self.dialogue.pop(-1)
# self.dialogue.pop(-1)
continue
return response
def reset(self):
# super().reset()
self.dialogue = []
self.agent_index = None
self.message = ''
self.taken_actions_list = []
# self.gpt_extractor.reset()
self.openai_api_keys = self.load_openai_keys()
self.state_prompt = self._load_state_prompt()
self.task_prompt = self._load_task_prompt()
| [
"You should only respond in JSON format as described",
"The former chat history can be summarized as: \n",
"src/civrealm/agents/civ_autogpt/prompts/state_prompt.txt",
"src/civrealm/agents/civ_autogpt/prompts/task_prompt.txt",
"You should only use the given commands!",
"PLACEHOLDER Now you get the needed information from the manual, give me your action answer."
] |
2024-01-10 | AI-Jie01/auto-evaluator | auto-evaluator.py | import os
import json
import time
import pypdf
import random
import itertools
import text_utils
import pandas as pd
import altair as alt
import streamlit as st
from io import StringIO
from langchain.llms import Anthropic
from langchain.vectorstores import FAISS
from langchain.chains import RetrievalQA
from langchain.chat_models import ChatOpenAI
from langchain.retrievers import SVMRetriever
from langchain.chains import QAGenerationChain
from langchain.retrievers import TFIDFRetriever
from langchain.evaluation.qa import QAEvalChain
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.embeddings.openai import OpenAIEmbeddings
from langchain.retrievers.llama_index import LlamaIndexRetriever
from text_utils import GRADE_DOCS_PROMPT, GRADE_ANSWER_PROMPT, GRADE_DOCS_PROMPT_FAST, GRADE_ANSWER_PROMPT_FAST
from langchain.text_splitter import RecursiveCharacterTextSplitter, CharacterTextSplitter
# Keep dataframe in memory to accumulate experimal results
if "existing_df" not in st.session_state:
summary = pd.DataFrame(columns=['chunk_chars',
'overlap',
'split',
'model',
'retriever',
'embedding',
'latency',
'retrival score',
'answer score'])
st.session_state.existing_df = summary
else:
summary = st.session_state.existing_df
@st.cache_data
def load_docs(files):
# Load docs
# IN: List of upload files (from Streamlit)
# OUT: str
st.info("`Reading doc ...`")
all_text = ""
for file_path in files:
file_extension = os.path.splitext(file_path.name)[1]
if file_extension == ".pdf":
pdf_reader = pypdf.PdfReader(file_path)
text = ""
for page in pdf_reader.pages:
text += page.extract_text()
text = text_utils.clean_pdf_text(text)
all_text += text
elif file_extension == ".txt":
stringio = StringIO(file_path.getvalue().decode("utf-8"))
text = stringio.read()
all_text += text
else:
st.warning('Please provide txt or pdf.', icon="⚠️")
return all_text
@st.cache_data
def generate_eval(text, N, chunk):
# Generate N questions from context of chunk chars
# IN: text, N questions, chunk size to draw question from in the doc
# OUT: eval set as JSON list
st.info("`Generating eval set ...`")
n = len(text)
starting_indices = [random.randint(0, n-chunk) for _ in range(N)]
sub_sequences = [text[i:i+chunk] for i in starting_indices]
chain = QAGenerationChain.from_llm(ChatOpenAI(temperature=0))
eval_set = []
for i, b in enumerate(sub_sequences):
try:
qa = chain.run(b)
eval_set.append(qa)
except:
st.warning('Error generating question %s.'%str(i+1), icon="⚠️")
eval_set_full = list(itertools.chain.from_iterable(eval_set))
return eval_set_full
@st.cache_resource
def split_texts(text, chunk_size, overlap, split_method):
# Split texts
# IN: text, chunk size, overlap, split_method
# OUT: list of str splits
st.info("`Splitting doc ...`")
if split_method == "RecursiveTextSplitter":
text_splitter = RecursiveCharacterTextSplitter(chunk_size=chunk_size,
chunk_overlap=overlap)
elif split_method == "CharacterTextSplitter":
text_splitter = CharacterTextSplitter(separator=" ",
chunk_size=chunk_size,
chunk_overlap=overlap)
splits = text_splitter.split_text(text)
return splits
@st.cache_resource
def make_retriever(splits, retriever_type, embeddings, num_neighbors):
# Make document retriever
# IN: list of str splits, retriever type, embedding type, number of neighbors for retrieval
# OUT: retriever
st.info("`Making retriever ...`")
# Set embeddings
if embeddings == "OpenAI":
embd = OpenAIEmbeddings()
elif embeddings == "HuggingFace":
embd = HuggingFaceEmbeddings()
# Select retriever
if retriever_type == "similarity-search":
try:
vectorstore = FAISS.from_texts(splits, embd)
except ValueError:
st.warning("`Error using OpenAI embeddings (disallowed TikToken token in the text). Using HuggingFace.`", icon="⚠️")
vectorstore = FAISS.from_texts(splits, HuggingFaceEmbeddings())
retriever = vectorstore.as_retriever(k=num_neighbors)
elif retriever_type == "SVM":
retriever = SVMRetriever.from_texts(splits,embd)
elif retriever_type == "TF-IDF":
retriever = TFIDFRetriever.from_texts(splits)
return retriever
def make_chain(model_version, retriever):
# Make chain
# IN: model version, retriever
# OUT: chain
if (model_version == "gpt-3.5-turbo") or (model_version == "gpt-4"):
llm = ChatOpenAI(model_name=model_version, temperature=0)
elif model_version == "anthropic":
llm = Anthropic(temperature=0)
qa = RetrievalQA.from_chain_type(llm,
chain_type="stuff",
retriever=retriever,
input_key="question")
return qa
def grade_model_answer(predicted_dataset, predictions, grade_answer_prompt):
# Grade the distilled answer
# IN: ground truth, model predictions
# OUT: list of scores
st.info("`Grading model answer ...`")
if grade_answer_prompt == "Fast":
prompt = GRADE_ANSWER_PROMPT_FAST
else:
prompt = GRADE_ANSWER_PROMPT
eval_chain = QAEvalChain.from_llm(llm=ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0),
prompt=prompt)
graded_outputs = eval_chain.evaluate(predicted_dataset,
predictions,
question_key="question",
prediction_key="result")
return graded_outputs
def grade_model_retrieval(gt_dataset, predictions, grade_docs_prompt):
# Grade the docs retrieval
# IN: ground truth, model predictions
# OUT: list of scores
st.info("`Grading relevance of retrived docs ...`")
if grade_docs_prompt == "Fast":
prompt = GRADE_DOCS_PROMPT_FAST
else:
prompt = GRADE_DOCS_PROMPT
eval_chain = QAEvalChain.from_llm(llm=ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0),
prompt=prompt)
graded_outputs = eval_chain.evaluate(gt_dataset,
predictions,
question_key="question",
prediction_key="result")
return graded_outputs
def run_eval(chain, retriever, eval_set, grade_prompt):
# Compute eval
# IN: chain, retriever, eval set, flag for docs retrieval prompt
# OUT: list of scores for answers and retrival, latency, predictions
st.info("`Running eval ...`")
predictions = []
retrived_docs = []
gt_dataset = []
latency = []
for data in eval_set:
# Get answer and log latency
start_time = time.time()
predictions.append(chain(data))
gt_dataset.append(data)
end_time = time.time()
elapsed_time = end_time - start_time
latency.append(elapsed_time)
# Retrive data
docs=retriever.get_relevant_documents(data["question"])
# Extract text from retrived docs
retrived_doc_text = ""
for i,doc in enumerate(docs):
retrived_doc_text += "Doc %s: "%str(i+1) + doc.page_content + " "
retrived = {"question": data["question"],"answer": data["answer"], "result": retrived_doc_text}
retrived_docs.append(retrived)
# Grade
graded_answers = grade_model_answer(gt_dataset, predictions, grade_prompt)
graded_retrieval = grade_model_retrieval(gt_dataset, retrived_docs, grade_prompt)
return graded_answers, graded_retrieval, latency, predictions
# Auth
st.sidebar.image("img/diagnostic.jpg")
with st.sidebar.form("user_input"):
num_eval_questions = st.select_slider("`Number of eval questions`",
options=[1, 5, 10, 15, 20], value=5)
chunk_chars = st.select_slider("`Choose chunk size for splitting`",
options=[500, 750, 1000, 1500, 2000], value=1000)
overlap = st.select_slider("`Choose overlap for splitting`",
options=[0, 50, 100, 150, 200], value=100)
split_method = st.radio("`Split method`",
("RecursiveTextSplitter",
"CharacterTextSplitter"),
index=0)
model = st.radio("`Choose model`",
("gpt-3.5-turbo",
"gpt-4",
"anthropic"),
index=0)
retriever_type = st.radio("`Choose retriever`",
("TF-IDF",
"SVM",
"similarity-search"),
index=2)
num_neighbors = st.select_slider("`Choose # chunks to retrieve`",
options=[3, 4, 5, 6, 7, 8])
embeddings = st.radio("`Choose embeddings`",
("HuggingFace",
"OpenAI"),
index=1)
grade_prompt = st.radio("`Gradeing style prompt`",
("Fast",
"Descriptive"),
index=0)
submitted = st.form_submit_button("Submit evaluation")
# App
st.header("`Auto-evaluator`")
st.info("`I am an evaluation tool for question-answering. Given documents, I will auto-generate a question-answer eval set and evaluate using the selected chain settings. Experiments with different configurations are logged. Optionally, provide your own eval set.`")
with st.form(key='file_inputs'):
uploaded_file = st.file_uploader("`Please upload a file to evaluate (.txt or .pdf):` ",
type=['pdf', 'txt'],
accept_multiple_files=True)
uploaded_eval_set = st.file_uploader("`[Optional] Please upload eval set (JSON):` ",
type=['json'],
accept_multiple_files=False)
submitted = st.form_submit_button("Submit files")
if uploaded_file:
# Load docs
text = load_docs(uploaded_file)
# Generate num_eval_questions questions, each from context of 3k chars randomly selected
if not uploaded_eval_set:
eval_set = generate_eval(text, num_eval_questions, 3000)
else:
eval_set = json.loads(uploaded_eval_set.read())
# Split text
splits = split_texts(text, chunk_chars, overlap, split_method)
# Make vector DB
retriever = make_retriever(splits, retriever_type, embeddings, num_neighbors)
# Make chain
qa_chain = make_chain(model, retriever)
# Grade model
graded_answers, graded_retrieval, latency, predictions = run_eval(qa_chain, retriever, eval_set, grade_prompt)
# Assemble ouputs
d = pd.DataFrame(predictions)
d['answer score'] = [g['text'] for g in graded_answers]
d['docs score'] = [g['text'] for g in graded_retrieval]
d['latency'] = latency
# Summary statistics
mean_latency = d['latency'].mean()
correct_answer_count = len([text for text in d['answer score'] if "INCORRECT" not in text])
correct_docs_count = len([text for text in d['docs score'] if "Context is relevant: True" in text])
percentage_answer = (correct_answer_count / len(graded_answers)) * 100
percentage_docs = (correct_docs_count / len(graded_retrieval)) * 100
st.subheader("`Run Results`")
st.info("`I will grade the chain based on: 1/ the relevance of the retrived documents relative to the question and 2/ the summarized answer relative to the ground truth answer. You can see (and change) to prompts used for grading in text_utils`")
st.dataframe(data=d, use_container_width=True)
# Accumulate results
st.subheader("`Aggregate Results`")
new_row = pd.DataFrame({'chunk_chars': [chunk_chars],
'overlap': [overlap],
'split': [split_method],
'model': [model],
'retriever': [retriever_type],
'embedding': [embeddings],
'latency': [mean_latency],
'retrival score': [percentage_docs],
'answer score': [percentage_answer]})
summary = pd.concat([summary, new_row], ignore_index=True)
st.dataframe(data=summary, use_container_width=True)
st.session_state.existing_df = summary
# Dataframe for visualization
show = summary.reset_index().copy()
show.columns = ['expt number', 'chunk_chars', 'overlap',
'split', 'model', 'retriever', 'embedding', 'latency', 'retrival score','answer score']
show['expt number'] = show['expt number'].apply(
lambda x: "Expt #: " + str(x+1))
show['mean score'] = (show['retrival score'] + show['answer score']) / 2
c = alt.Chart(show).mark_circle(size=100).encode(x='mean score', y='latency',
color='expt number', tooltip=['expt number', 'mean score', 'latency'])
st.altair_chart(c, use_container_width=True, theme="streamlit")
| [
"`Gradeing style prompt`",
"Descriptive"
] |
2024-01-10 | ITM-Kitware/align-system | align_system~cli~run_align_system.py | import sys
import json
from rich.highlighter import JSONHighlighter
from align_system.utils import logging
from align_system.interfaces.cli_builder import build_interfaces
from align_system.algorithms.llm_baseline import LLMBaseline
from align_system.algorithms.llama_index import LlamaIndex
from align_system.similarity_measures import build_force_choice_func
from align_system.prompt_engineering.common import prepare_prompt
from align_system.utils.enums import ProbeType
from align_system.interfaces.abstracts import (
ScenarioInterfaceWithAlignment,
ProbeInterfaceWithAlignment)
log = logging.getLogger(__name__)
JSON_HIGHLIGHTER = JSONHighlighter()
def add_cli_args(parser):
parser.add_argument('-m', '--model',
type=str,
default="falcon",
help="LLM Baseline model to use")
parser.add_argument('-t', '--align-to-target',
action='store_true',
default=False,
help="Align algorithm to target KDMAs")
parser.add_argument('-a', '--algorithm',
type=str,
default="llama_index",
help="Algorithm to use")
parser.add_argument('-A', '--algorithm-kwargs',
type=str,
required=False,
help="JSON encoded dictionary of kwargs for algorithm "
"initialization")
parser.add_argument('--similarity-measure',
type=str,
default="bert",
help="Similarity measure to use (default: 'bert')")
parser.add_argument('-l', '--loglevel',
type=str,
default='INFO')
def main():
log.debug(f"[bright_black]CMD: {' '.join(sys.argv)}[/bright_black]",
extra={'markup': True, 'highlighter': None})
run_align_system(
**build_interfaces(add_cli_args, "ALIGN System CLI",
supported_interfaces={'LocalFiles',
'TA1Soartech',
'TA1Adept'}))
def run_align_system(interface,
model,
align_to_target=False,
algorithm="llm_baseline",
algorithm_kwargs=None,
similarity_measure="bert",
loglevel="INFO"):
# Set log level on root logger (such that child loggers respect
# the set log level)
logging.getLogger().setLevel(loglevel)
scenario = interface.start_scenario()
scenario_dict = scenario.to_dict()
if align_to_target:
alignment_target_dict = scenario.get_alignment_target()
force_choice_func = build_force_choice_func(similarity_measure)
# Load the system / model
algorithm_kwargs_parsed = {}
if algorithm_kwargs is not None:
algorithm_kwargs_parsed = json.loads(algorithm_kwargs)
if algorithm == "llm_baseline":
algorithm = LLMBaseline(
model_use=model, distributed=False,
**algorithm_kwargs_parsed)
elif algorithm == "llama_index":
# TODO: This is a hacky way to have the "Knowledge" KDMA
# determine whether or not domain documents should be loaded.
# Should remove, or move to llama_index code
if align_to_target:
for kdma_dict in alignment_target_dict.get('kdma_values', ()):
if kdma_dict['kdma'].lower() == 'knowledge':
if kdma_dict['value'] > 1:
log.debug("** Setting 'retrieval_enabled' to True "
"based on 'Knowledge' KDMA value ({})".format(
kdma_dict['value']))
algorithm_kwargs_parsed['retrieval_enabled'] = True
else:
log.debug("** Setting 'retrieval_enabled' to False "
"based on 'Knowledge' KDMA value ({})".format(
kdma_dict['value']))
algorithm_kwargs_parsed['retrieval_enabled'] = False
break
algorithm = LlamaIndex(
model_name=model,
**algorithm_kwargs_parsed)
algorithm.load_model()
for probe in scenario.iterate_probes():
probe_dict = probe.to_dict()
casualties_dicts = scenario_dict['state'].get('casualties', [])
mission_unstructured =\
scenario_dict['state']['mission']['unstructured']
state_unstructured = None
if 'state' in probe_dict:
probe_state = probe_dict['state']
if 'casualties' in probe_state:
casualties_dicts = probe_dict['state']['casualties']
if('mission' in probe_state and
'unstructured' in probe_state['mission']):
mission_unstructured =\
probe_state['mission']['unstructured']
if 'unstructured' in probe_state:
state_unstructured = probe_state['unstructured']
if probe_dict['type'] == ProbeType.MultipleChoice.value:
probe_options_dicts = probe_dict['options']
else:
probe_options_dicts = None
prompt = prepare_prompt(
scenario_dict['state']['unstructured'],
mission_unstructured,
state_unstructured,
probe_dict['prompt'],
casualties_dicts,
options=probe_options_dicts,
alignment_target=alignment_target_dict if align_to_target else None
)
log.info("[bold]* Prompt for ADM *[/bold]",
extra={"markup": True})
log.info(prompt)
raw_response = str(algorithm.run_inference(prompt))
log.info("[bold]* ADM raw response *[/bold]",
extra={"markup": True})
log.info(raw_response)
if probe_dict['type'] == ProbeType.FreeResponse.value:
probe.respond({'justification': raw_response})
else:
# Assume multiple-choice style
selected_choice_idx, selected_choice = force_choice_func(
raw_response, [str(o['value']) for o in probe_dict['options']])
log.info("[bold]* Mapped selection *[/bold]",
extra={"markup": True})
log.info(selected_choice)
selected_choice_id =\
probe_dict['options'][selected_choice_idx]['id']
probe.respond({'justification': raw_response,
'choice': selected_choice_id})
if isinstance(probe, ProbeInterfaceWithAlignment):
probe_alignment_results = probe.get_alignment_results()
log.info("* Probe alignment score: {}".format(
probe_alignment_results['score']))
if isinstance(scenario, ScenarioInterfaceWithAlignment):
scenario_alignment_results = scenario.get_alignment_results()
log.info("* Scenario alignment score: {}".format(
scenario_alignment_results['score']))
if __name__ == "__main__":
main()
| [
"unstructured"
] |
2024-01-10 | ITM-Kitware/align-system | align_system~algorithms~llama_index.py | from langchain.embeddings.huggingface import HuggingFaceEmbeddings
from llama_index import (
VectorStoreIndex,
SimpleDirectoryReader,
LangchainEmbedding,
ServiceContext,
)
from llama_index.llms import HuggingFaceLLM
from llama_index.prompts.prompts import SimpleInputPrompt
from llama_index.llm_predictor import LLMPredictor
from llama_index.prompts import PromptTemplate
import torch
from transformers import AutoModelForCausalLM
from align_system.utils import logging
log = logging.getLogger(__name__)
query_wrapper_prompt = SimpleInputPrompt(
"Below is an instruction that describes a task. "
"Write a response that appropriately completes the request.\n\n"
"### Instruction:\n{query_str}\n\n### Response:"
)
class LlamaIndex:
def __init__(self, domain_docs_dir=None, device="cuda", model_name="falcon", retrieval_enabled=True): # noqa
if retrieval_enabled and domain_docs_dir is None:
raise RuntimeError(
"'domain_docs_dir' argument must not be empty if "
"'retrieval_enabled' is True")
self.domain_docs_dir = domain_docs_dir
self.device = device
self.model_name = model_name
self.retrieval_enabled = retrieval_enabled
def load_model(self):
if self.model_name == 'falcon':
self.model_name = 'tiiuae/falcon-7b-instruct'
if self.device == 'cuda':
model_kwargs = {"torch_dtype": torch.float16,
"device_map": "auto"}
predictor_kwargs = {"device_map": "auto"}
else:
model_kwargs = {}
predictor_kwargs = {}
self.embed_model = LangchainEmbedding(HuggingFaceEmbeddings())
# FalconForCausalLM
# https://github.com/huggingface/transformers/blob/0188739a74dca8a9cf3f646a9a417af7f136f1aa/src/transformers/models/falcon/convert_custom_code_checkpoint.py#L37
model = AutoModelForCausalLM.from_pretrained(
self.model_name, **model_kwargs)
self.hf_llm = HuggingFaceLLM(
context_window=2048,
max_new_tokens=256,
# generate_kwargs={"temperature": 0.25, "do_sample": False},
# "temperature" parameter is not used if "do_sample" is False
generate_kwargs={"do_sample": False},
query_wrapper_prompt=query_wrapper_prompt,
tokenizer_name=self.model_name,
model=model,
tokenizer_kwargs={"max_length": 2048},
tokenizer_outputs_to_remove=["token_type_ids"],
**predictor_kwargs)
self.service_context = ServiceContext.from_defaults(
embed_model=self.embed_model,
chunk_size=512,
llm=self.hf_llm)
if self.retrieval_enabled:
documents = SimpleDirectoryReader(self.domain_docs_dir).load_data()
new_index = VectorStoreIndex.from_documents(
documents,
service_context=self.service_context)
# query with embed_model specified
self.query_engine = new_index.as_query_engine(streaming=True)
else:
log.info("Retrieval disabled")
self.query_engine = LLMPredictor(self.hf_llm)
self.model_loaded = True
def run_inference(self, prompt):
if self.retrieval_enabled:
return self.query_engine.query(prompt)
else:
bare_template = PromptTemplate("{query_str}")
return self.query_engine.predict(bare_template, query_str=prompt)
def __call__(self, sample, target_kdma_values, **kwargs):
prompt = sample['scenario']
if sample['state'] is not None:
prompt += f'\n{sample["state"]}'
prompt += f'\n{sample["probe"]}'
prompt += '\nIdentify the integer index of the choice that best completes the request.\n'
prompt += 'Choices:\n'
choice_strs = [
f'{idx}: {choice}'
for idx, choice in enumerate(sample['choices'])
]
prompt += '\n'.join(choice_strs)
log_file = kwargs.get('log_file', None)
if log_file:
log_file.write(f'Prompt:\n{prompt}\n\n')
choice = None
n_fail = 0
while choice is None:
response = str(self.run_inference(prompt))
if log_file:
log_file.write(f'Response:\n{response}\n\n')
# find the first integer in the response
for char in response:
try:
choice = int(char)
break
except ValueError:
pass
if choice is not None:
if choice > len(sample['choices']) - 1:
choice = None
if choice is None:
n_fail += 1
if n_fail > 10:
return {
'choice': 0,
'info': f'Failed to find choice in response: {response}'
}
return {
'choice': choice,
'info': response
}
| [
"\n",
"Write a response that appropriately completes the request.\n\n",
"\nPLACEHOLDER",
"{query_str}",
"scenario",
"\nIdentify the integer index of the choice that best completes the request.\n",
"Below is an instruction that describes a task. ",
"### Instruction:\n{query_str}\n\n### Response:",
"Choices:\n"
] |
2024-01-10 | ITM-Kitware/align-system | align_system~cli~run_action_based_align_system.py | import sys
import json
from rich.highlighter import JSONHighlighter
from align_system.utils import logging
from align_system.interfaces.cli_builder import build_interfaces
from align_system.algorithms.llm_baseline import LLMBaseline
from align_system.algorithms.llama_index import LlamaIndex
from align_system.similarity_measures import build_force_choice_func
from align_system.prompt_engineering.common import (
prepare_action_based_prompt,
prepare_treatment_selection_prompt,
prepare_tagging_selection_prompt)
log = logging.getLogger(__name__)
JSON_HIGHLIGHTER = JSONHighlighter()
def add_cli_args(parser):
parser.add_argument('-m', '--model',
type=str,
default="falcon",
help="LLM Baseline model to use")
parser.add_argument('-t', '--align-to-target',
action='store_true',
default=False,
help="Align algorithm to target KDMAs")
parser.add_argument('-a', '--algorithm',
type=str,
default="llama_index",
help="Algorithm to use")
parser.add_argument('-A', '--algorithm-kwargs',
type=str,
required=False,
help="JSON encoded dictionary of kwargs for algorithm "
"initialization")
parser.add_argument('--similarity-measure',
type=str,
default="bert",
help="Similarity measure to use (default: 'bert')")
parser.add_argument('-l', '--loglevel',
type=str,
default='INFO')
def main():
log.debug(f"[bright_black]CMD: {' '.join(sys.argv)}[/bright_black]",
extra={'markup': True, 'highlighter': None})
run_action_based_align_system(
**build_interfaces(add_cli_args, "ALIGN Action Based System CLI",
supported_interfaces={'TA3ActionBased'}))
# TODO: Find a better location for this (or pull in from TA3 client
# module)
TREATMENT_LOCATIONS = ['right forearm',
'left forearm',
'right calf',
'left calf',
'right thigh',
'left thigh',
'right stomach',
'left stomach',
'right bicep',
'left bicep',
'right shoulder',
'left shoulder',
'right side',
'left side',
'right chest',
'left chest',
'right wrist',
'left wrist',
'left face',
'right face',
'left neck',
'right neck',
'unspecified']
CASUALTY_TAGS = ['MINIMAL',
'DELAYED',
'IMMEDIATE',
'EXPECTANT']
def run_action_based_align_system(interface,
model,
align_to_target=False,
algorithm="llm_baseline",
algorithm_kwargs=None,
similarity_measure="bert",
loglevel="INFO"):
# Set log level on root logger (such that child loggers respect
# the set log level)
logging.getLogger().setLevel(loglevel)
scenario = interface.start_scenario()
scenario_dict = scenario.to_dict()
if align_to_target:
alignment_target_dict = scenario.get_alignment_target()
force_choice_func = build_force_choice_func(similarity_measure)
# Load the system / model
algorithm_kwargs_parsed = {}
if algorithm_kwargs is not None:
algorithm_kwargs_parsed = json.loads(algorithm_kwargs)
if algorithm == "llm_baseline":
algorithm = LLMBaseline(
model_use=model, distributed=False,
**algorithm_kwargs_parsed)
elif algorithm == "llama_index":
# TODO: This is a hacky way to have the "Knowledge" KDMA
# determine whether or not domain documents should be loaded.
# Should remove, or move to llama_index code
if align_to_target:
for kdma_dict in alignment_target_dict.get('kdma_values', ()):
if kdma_dict['kdma'].lower() == 'knowledge':
if kdma_dict['value'] > 1:
log.info("** Setting 'retrieval_enabled' to True "
"based on 'Knowledge' KDMA value ({})".format(
kdma_dict['value']))
algorithm_kwargs_parsed['retrieval_enabled'] = True
else:
log.info("** Setting 'retrieval_enabled' to False "
"based on 'Knowledge' KDMA value ({})".format(
kdma_dict['value']))
algorithm_kwargs_parsed['retrieval_enabled'] = False
break
algorithm = LlamaIndex(
model_name=model,
**algorithm_kwargs_parsed)
algorithm.load_model()
current_state = scenario.get_state()
scenario_complete = current_state.get('scenario_complete', False)
while not scenario_complete:
available_actions = scenario.get_available_actions()
untagged_casualties = [c for c in current_state['casualties']
if 'tag' not in c]
# Don't let ADM choose to tag a casualty unless there are
# still untagged casualties
available_actions_unstructured =\
[a['unstructured'] for a in available_actions
if a['action_type'] != 'TAG_CASUALTY'
or (a['action_type'] == 'TAG_CASUALTY'
and len(untagged_casualties) > 0)]
prompt = prepare_action_based_prompt(
scenario_dict['state']['unstructured'],
current_state['mission'].get('unstructured'),
current_state['unstructured'],
current_state['casualties'],
available_actions_unstructured,
alignment_target=alignment_target_dict if align_to_target else None
)
log.info("[bold]* Action prompt for ADM *[/bold]",
extra={"markup": True})
log.info(prompt)
raw_response = str(algorithm.run_inference(prompt))
log.info("[bold]* ADM raw response *[/bold]",
extra={"markup": True})
log.info(raw_response)
selected_action_idx, selected_action = force_choice_func(
raw_response, available_actions_unstructured)
log.info("[bold]* Mapped selection *[/bold]",
extra={"markup": True})
log.info(selected_action)
action_to_take = available_actions[selected_action_idx]
if action_to_take['action_type'] == 'APPLY_TREATMENT':
# Ask the system to specify the treatment to use and where
# First casualty with the matching ID (should only be one)
casualty_id = action_to_take['casualty_id']
matching_casualties = [c for c in current_state['casualties']
if c['id'] == casualty_id]
assert len(matching_casualties) == 1
casualty_to_treat = matching_casualties[0]
treatment_prompt = prepare_treatment_selection_prompt(
casualty_to_treat['unstructured'],
casualty_to_treat['vitals'],
current_state['supplies'])
log.info("[bold]** Treatment prompt for ADM **[/bold]",
extra={"markup": True})
log.info(treatment_prompt)
raw_treatment_response =\
str(algorithm.run_inference(treatment_prompt))
log.info("[bold]** ADM raw treatment response **[/bold]",
extra={"markup": True})
log.info(raw_treatment_response)
# Map response to treatment and treatment location
_, treatment = force_choice_func(
raw_treatment_response,
[s['type'] for s in current_state['supplies']])
_, treatment_location = force_choice_func(
raw_treatment_response,
TREATMENT_LOCATIONS)
log.info("[bold]** Mapped treatment selection **[/bold]",
extra={"markup": True})
log.info("{}: {}".format(treatment, treatment_location))
# Populate required parameters for treatment action
action_to_take['parameters'] = {
'treatment': treatment,
'location': treatment_location}
elif action_to_take['action_type'] == 'TAG_CASUALTY':
# Ask the system to specify which triage tag to apply
tagging_prompt = prepare_tagging_selection_prompt(
untagged_casualties,
CASUALTY_TAGS)
log.info("[bold]** Tagging prompt for ADM **[/bold]",
extra={"markup": True})
log.info(tagging_prompt)
raw_tagging_response =\
str(algorithm.run_inference(tagging_prompt))
log.info("[bold]** ADM raw tagging response **[/bold]",
extra={"markup": True})
log.info(raw_tagging_response)
# Map response to casualty to tag
casualty_to_tag_idx, _ = force_choice_func(
raw_tagging_response,
[c['unstructured'] for c in untagged_casualties])
casualty_to_tag_id = untagged_casualties[casualty_to_tag_idx]['id']
# Map response to tag
_, tag = force_choice_func(
raw_tagging_response,
CASUALTY_TAGS)
log.info("[bold]** Mapped tag selection **[/bold]",
extra={"markup": True})
log.info("{}: {}".format(casualty_to_tag_id, tag))
# Populate required parameters for treatment action
action_to_take['casualty_id'] = casualty_to_tag_id
action_to_take['parameters'] = {'category': tag}
log.debug("[bold]*ACTION BEING TAKEN*[/bold]",
extra={"markup": True})
log.debug(json.dumps(action_to_take, indent=4),
extra={"highlighter": JSON_HIGHLIGHTER})
current_state = scenario.take_action(action_to_take)
scenario_complete = current_state.get('scenario_complete', False)
if __name__ == "__main__":
main()
| [
"unstructured",
"mission",
"casualties"
] |
2024-01-10 | jaredbradley243/docsgpt | scripts~code_docs_gen.py | import ast
import json
from pathlib import Path
import dotenv
from langchain.llms import OpenAI
from langchain.prompts import PromptTemplate
dotenv.load_dotenv()
ps = list(Path("inputs").glob("**/*.py"))
data = []
sources = []
for p in ps:
with open(p) as f:
data.append(f.read())
sources.append(p)
def get_functions_in_class(node):
functions = []
functions_code = []
for child in node.body:
if isinstance(child, ast.FunctionDef):
functions.append(child.name)
functions_code.append(ast.unparse(child))
return functions, functions_code
def get_classes_and_functions(source_code):
tree = ast.parse(source_code)
classes = {}
for node in tree.body:
if isinstance(node, ast.ClassDef):
class_name = node.name
function_name, function = get_functions_in_class(node)
# join function name and function code
functions = dict(zip(function_name, function))
classes[class_name] = functions
return classes
structure_dict = {}
c1 = 0
for code in data:
classes = get_classes_and_functions(ast.parse(code))
source = str(sources[c1])
structure_dict[source] = classes
c1 += 1
# save the structure dict as json
with open('structure_dict.json', 'w') as f:
json.dump(structure_dict, f)
if not Path("outputs").exists():
Path("outputs").mkdir()
c1 = len(structure_dict)
c2 = 0
for source, classes in structure_dict.items():
c2 += 1
print(f"Processing file {c2}/{c1}")
f1 = len(classes)
f2 = 0
for class_name, functions in classes.items():
f2 += 1
print(f"Processing class {f2}/{f1}")
source_w = source.replace("inputs/", "")
source_w = source_w.replace(".py", ".txt")
if not Path(f"outputs/{source_w}").exists():
with open(f"outputs/{source_w}", "w") as f:
f.write(f"Class: {class_name}")
else:
with open(f"outputs/{source_w}", "a") as f:
f.write(f"\n\nClass: {class_name}")
# append class name to the front
for function in functions:
b1 = len(functions)
b2 = 0
print(f"Processing function {b2}/{b1}")
b2 += 1
prompt = PromptTemplate(
input_variables=["code"],
template="Code: \n{code}, \nDocumentation: ",
)
llm = OpenAI(temperature=0)
response = llm(prompt.format(code=functions[function]))
if not Path(f"outputs/{source_w}").exists():
with open(f"outputs/{source_w}", "w") as f:
f.write(f"Function: {functions[function]}, \nDocumentation: {response}")
else:
with open(f"outputs/{source_w}", "a") as f:
f.write(f"\n\nFunction: {functions[function]}, \nDocumentation: {response}")
| [
"Code: \n{code}, \nDocumentation: "
] |
2024-01-10 | jaredbradley243/docsgpt | application~parser~py2doc.py | import ast
import os
from pathlib import Path
import tiktoken
from langchain.llms import OpenAI
from langchain.prompts import PromptTemplate
def find_files(directory):
files_list = []
for root, dirs, files in os.walk(directory):
for file in files:
if file.endswith('.py'):
files_list.append(os.path.join(root, file))
return files_list
def extract_functions(file_path):
with open(file_path, 'r') as file:
source_code = file.read()
functions = {}
tree = ast.parse(source_code)
for node in ast.walk(tree):
if isinstance(node, ast.FunctionDef):
func_name = node.name
func_def = ast.get_source_segment(source_code, node)
functions[func_name] = func_def
return functions
def extract_classes(file_path):
with open(file_path, 'r') as file:
source_code = file.read()
classes = {}
tree = ast.parse(source_code)
for node in ast.walk(tree):
if isinstance(node, ast.ClassDef):
class_name = node.name
function_names = []
for subnode in ast.walk(node):
if isinstance(subnode, ast.FunctionDef):
function_names.append(subnode.name)
classes[class_name] = ", ".join(function_names)
return classes
def extract_functions_and_classes(directory):
files = find_files(directory)
functions_dict = {}
classes_dict = {}
for file in files:
functions = extract_functions(file)
if functions:
functions_dict[file] = functions
classes = extract_classes(file)
if classes:
classes_dict[file] = classes
return functions_dict, classes_dict
def parse_functions(functions_dict, formats, dir):
c1 = len(functions_dict)
for i, (source, functions) in enumerate(functions_dict.items(), start=1):
print(f"Processing file {i}/{c1}")
source_w = source.replace(dir + "/", "").replace("." + formats, ".md")
subfolders = "/".join(source_w.split("/")[:-1])
Path(f"outputs/{subfolders}").mkdir(parents=True, exist_ok=True)
for j, (name, function) in enumerate(functions.items(), start=1):
print(f"Processing function {j}/{len(functions)}")
prompt = PromptTemplate(
input_variables=["code"],
template="Code: \n{code}, \nDocumentation: ",
)
llm = OpenAI(temperature=0)
response = llm(prompt.format(code=function))
mode = "a" if Path(f"outputs/{source_w}").exists() else "w"
with open(f"outputs/{source_w}", mode) as f:
f.write(
f"\n\n# Function name: {name} \n\nFunction: \n```\n{function}\n```, \nDocumentation: \n{response}")
def parse_classes(classes_dict, formats, dir):
c1 = len(classes_dict)
for i, (source, classes) in enumerate(classes_dict.items()):
print(f"Processing file {i + 1}/{c1}")
source_w = source.replace(dir + "/", "").replace("." + formats, ".md")
subfolders = "/".join(source_w.split("/")[:-1])
Path(f"outputs/{subfolders}").mkdir(parents=True, exist_ok=True)
for name, function_names in classes.items():
print(f"Processing Class {i + 1}/{c1}")
prompt = PromptTemplate(
input_variables=["class_name", "functions_names"],
template="Class name: {class_name} \nFunctions: {functions_names}, \nDocumentation: ",
)
llm = OpenAI(temperature=0)
response = llm(prompt.format(class_name=name, functions_names=function_names))
with open(f"outputs/{source_w}", "a" if Path(f"outputs/{source_w}").exists() else "w") as f:
f.write(f"\n\n# Class name: {name} \n\nFunctions: \n{function_names}, \nDocumentation: \n{response}")
def transform_to_docs(functions_dict, classes_dict, formats, dir):
docs_content = ''.join([str(key) + str(value) for key, value in functions_dict.items()])
docs_content += ''.join([str(key) + str(value) for key, value in classes_dict.items()])
num_tokens = len(tiktoken.get_encoding("cl100k_base").encode(docs_content))
total_price = ((num_tokens / 1000) * 0.02)
print(f"Number of Tokens = {num_tokens:,d}")
print(f"Approx Cost = ${total_price:,.2f}")
user_input = input("Price Okay? (Y/N)\n").lower()
if user_input == "y" or user_input == "":
if not Path("outputs").exists():
Path("outputs").mkdir()
parse_functions(functions_dict, formats, dir)
parse_classes(classes_dict, formats, dir)
print("All done!")
else:
print("The API was not called. No money was spent.")
| [
"Code: \n{code}, \nDocumentation: ",
"functions_names",
"class_name",
"Class name: {class_name} \nFunctions: {functions_names}, \nDocumentation: "
] |
2024-01-10 | phasetr/generative-ai | fundamentals~tts.py | import os
import traceback
from uuid_extensions import uuid7str
from openai import OpenAI
class TTS:
"""_summary_
適当なテキストから音声ファイルを作る。
"""
def __init__(self, uuid) -> None:
self.uuid = uuid
self.output_directory_name = os.environ.get(
"OUTPUT_DIRECTORY_NAME", "output")
# ディレクトリがなければ作る
if not os.path.exists(self.output_directory_name):
os.mkdir(self.output_directory_name)
self.orig_audio_path = f"{self.output_directory_name}/{uuid}-orig.mp3"
self.converted_audio_path = f"{self.output_directory_name}/{uuid}-converted.mp3"
self.sample_text_name = os.environ.get("SAMPLE_TEXT_FILE_NAME")
def create_audio(self, text):
"""指定されたテキストから音声ファイルを作る"""
try:
client = OpenAI()
response = client.audio.speech.create(
model=os.environ.get("TTS_MODEL"),
voice=os.environ.get("TTS_VOICE", "nova"),
input=text
)
response.stream_to_file(self.converted_audio_path)
return self.converted_audio_path
except Exception as e:
print(e)
traceback.print_exc()
exit()
def create_audio_from_sample_text(self):
"""環境変数`SAMPLE_TEXT_NAME`に指定されたテキストファイルを読み込んで音声ファイルを作る"""
try:
with open(self.sample_text_name, mode="r", encoding="utf-8") as f:
text = f.read()
client = OpenAI()
response = client.audio.speech.create(
model=os.environ.get("TTS_MODEL"),
voice=os.environ.get("TTS_VOICE", "nova"),
input=text
)
response.stream_to_file(self.orig_audio_path)
return self.orig_audio_path
except Exception as e:
print(e)
traceback.print_exc()
exit()
if __name__ == "__main__":
uuid = uuid7str()
tts = TTS(uuid)
ret_audio_path = tts.create_audio_from_sample_text()
print(f"音声ファイルを作成しました: {ret_audio_path}")
| [] |
2024-01-10 | phasetr/generative-ai | 2023-08-21-lang-chain-streamlit~Chapter04~get_costs.py | from langchain.llms import OpenAI
from langchain.callbacks import get_openai_callback
llm = OpenAI(model_name="gpt-3.5-turbo")
with get_openai_callback() as cb:
result = llm("Tell me a joke")
print(cb)
| [] |
2024-01-10 | phasetr/generative-ai | 2023-12-21-Modern_Generative_AI_with_ChatGPT_and_OpenAI_Models~Chapter10-Enterprise_use_cases~code~medical_smart_search_app.py | import os
import streamlit as st
from langchain.chains.question_answering import load_qa_chain
from langchain.document_loaders import PyPDFLoader
from langchain.embeddings import OpenAIEmbeddings
from langchain.llms import AzureOpenAI
from langchain.vectorstores.faiss import FAISS
with open('secrets.toml', 'r') as f:
config = toml.load(f)
os.environ["OPENAI_API_TYPE"] = "azure"
os.environ["OPENAI_API_BASE"] = config['OPENAI_API_BASE']
os.environ["OPENAI_API_KEY"] = config['OPENAI_API_KEY']
llm = AzureOpenAI(deployment_name="text-davinci-003")
embeddings = OpenAIEmbeddings(document_model_name="text-embedding-ada-002", chunk_size=1)
st.set_page_config(
page_title="Home",
page_icon="👨⚕️",
)
st.header("Welcome to Medical Smart Search👨⚕️")
with st.sidebar.expander(" 🛠️ Settings ", expanded=False):
FILE = st.selectbox(label='File', options=['medical_paper.pdf'])
def get_answer(index, query):
"""Returns answer to a query using langchain QA chain"""
docs = index.similarity_search(query)
chain = load_qa_chain(llm)
answer = chain.run(input_documents=docs, question=query)
return answer
if FILE:
loader = PyPDFLoader(FILE)
pages = loader.load_and_split()
faiss_index = FAISS.from_documents(pages, embeddings)
query = st.text_area("Ask a question about the document")
if query:
docs = faiss_index.similarity_search(query, k=1)
button = st.button("Submit")
if button:
st.write(get_answer(faiss_index, query))
| [] |
2024-01-10 | phasetr/generative-ai | 2023-11-26-hackathon-note~1_text_to_mp3.py | import os
from uuid_extensions import uuid7str
from openai import OpenAI
from pathlib import Path
sample_text_name = "sample1.txt"
is_exist = os.path.exists(sample_text_name)
if not is_exist:
print(f"{sample_text_name}を作成してください。")
exit()
print("テキストを読み込みます。")
text = ""
with open(sample_text_name, mode="r", encoding="utf-8") as f:
text = f.read()
print(text)
mp3_directory_name = "mp3"
mp3_path = f"{mp3_directory_name}/{uuid7str()}.mp3"
# ディレクトリがなければ作る
if not os.path.exists(mp3_directory_name):
os.mkdir(mp3_directory_name)
print("音声ファイルを作成します。")
client = OpenAI()
response = client.audio.speech.create(
model="tts-1",
voice="nova",
input=text
)
response.stream_to_file(mp3_path)
print(f"音声ファイルを作成しました: {mp3_path}")
| [] |
2024-01-10 | phasetr/generative-ai | fundamentals~poll.py | from openai import OpenAI
from uuid_extensions import uuid7str
import dotenv
import os
# APIキーの設定
dotenv.load_dotenv()
client = OpenAI(api_key=os.environ.get('OPENAI_API_KEY'))
class OpenAIAdapter:
def __init__(self, file_root) -> None:
self.file_root = file_root
self.output_directory_name = os.environ.get(
"OUTPUT_DIRECTORY_NAME", "output")
# ディレクトリがなければ作る
if not os.path.exists(self.output_directory_name):
os.mkdir(self.output_directory_name)
# system_promptはsystem_prompt.txtから読み込む
with open("system_prompt.txt", "r") as f:
self.system_prompt = f.read()
pass
def _create_message(self, role, message):
return {
"role": role,
"content": message
}
def create_chat(self, question):
system_message = self._create_message("system", self.system_prompt)
user_message = self._create_message("user", question)
messages = [system_message, user_message]
res = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=messages)
# 返り値のテキストを出力する
content = res.choices[0].message.content
# ファイルに書き出す
text_file_path = f"{self.output_directory_name}/{self.file_root}-poll.txt"
with open(text_file_path, mode="w", encoding="utf-8") as f0:
f0.write(content)
return content
if __name__ == "__main__":
uuid = uuid7str()
adapter = OpenAIAdapter(uuid)
response_text = adapter.create_chat("こんにちは")
print(response_text)
| [] |
2024-01-10 | phasetr/generative-ai | fundamentals~stt.py | import traceback
from openai import OpenAI
import os
class STT:
def __init__(self) -> None:
self.output_directory_name = os.environ.get(
"OUTPUT_DIRECTORY_NAME", "output")
# ディレクトリがなければ作る
if not os.path.exists(self.output_directory_name):
os.mkdir(self.output_directory_name)
def create_text(self, audio_path):
"""音声ファイルからテキストを作る"""
try:
client = OpenAI()
with open(audio_path, "rb") as f:
# 音声ファイルを読み込んで変換
transcript = client.audio.transcriptions.create(
model="whisper-1",
file=f,
response_format="text"
)
# 変換結果からテキストを抽出して書き出す
basename, _ = os.path.splitext(audio_path)
text_file_root = basename.split("/")[-1]
text_file_path = f"{self.output_directory_name}/{text_file_root}.txt"
with open(text_file_path, mode="w", encoding="utf-8") as f0:
f0.write(transcript)
return transcript
except Exception as e:
print(e)
traceback.print_exc()
exit()
if __name__ == "__main__":
sample_audio_path = "audio/" + os.listdir("audio")[0]
print(f"対象音声ファイル: {sample_audio_path}")
stt = STT()
ret_text = stt.create_text(sample_audio_path)
print(f"作成されたテキスト: {ret_text}")
| [] |
2024-01-10 | phasetr/generative-ai | 2023-12-21-Modern_Generative_AI_with_ChatGPT_and_OpenAI_Models~Chapter10-Enterprise_use_cases~code~call_center_app.py | import sys
import requests
import os
import numpy as np
import toml
from streamlit_chat import message
import streamlit as st
import openai
with open('secrets.toml', 'r') as f:
config = toml.load(f)
openai.api_type = "azure"
openai.api_key = config['OPENAI_API_KEY']
openai.api_base = config['OPENAI_API_BASE']
openai.api_version = "2022-12-01"
# Opening JSON file
f = open('json_data.json')
# returns JSON object as
# a dictionary
data = json.load(f)
transcript = "Operator: Good morning, thank you for calling the auto insurance company, my name is John, how can I assist you today?\nCustomer: Yes, hi, I just noticed a dent on the side of my car and I have no idea how it got there. There were no witnesses around and I'm really frustrated.\nOperator: I'm sorry to hear that, I understand how frustrating it can be. Can you please provide me with your name and policy number so I can look up your account?\nCustomer: Yes, I’m Mario Rossi and the policy number is 123456.\nOperator: Thank you Mr. Rossi, let me take a look. I see that you've called earlier today, was there an issue with that call?\nCustomer: Yes, I was on hold for over an hour and the issue was not resolved. I'm really not happy about it.\nOperator: I'm sorry about that, let me assure you that we value your time and we'll do our best to assist you today. As for the dent on your car, I'd like to inform you that our policy does cover accidental damage like this. I can help you file a claim and connect you with one of our trusted repair shops in your area. Would you like me to proceed with that?\nCustomer: Yes, please. That would be great.\nOperator: Thank you for your cooperation. I'm now processing your claim and I'll be sending you an email with the next steps to follow. Please let me know if you have any other questions or concerns.\nCustomer: Thank you, I appreciate your help.\nOperator: You're welcome. Have a great day!\n\n\n"
st.set_page_config(
page_title="Home",
page_icon="🚗",
)
st.header("Welcome to Car Insurance management portal🚗")
st.subheader('Transcript Case #37294810', '📞')
st.text(transcript)
def create_ticket(data):
response = openai.Completion.create(
engine="test1",
prompt=transcript + f"Generate a response email to the transcript above, notifying the customer that the ticket has been created and apologizing if it was complaining. The name of the customer is {data['name']}",
temperature=1,
max_tokens=1968,
top_p=0.5,
frequency_penalty=0,
presence_penalty=0,
best_of=1,
stop=None)
def generate_email(transcript):
response = openai.Completion.create(
engine="test1",
prompt=transcript + f"Generate a response email to the transcript above, notifying the customer that the ticket has been created and apologizing if it was complaining. The name of the customer is {data['name']} and the policy number is {data['policy_number']}.",
temperature=1,
max_tokens=1968,
top_p=0.5,
frequency_penalty=0,
presence_penalty=0,
best_of=1,
stop=None)
return response["choices"][0]["text"].strip()
def improvement(data):
response = openai.Completion.create(
engine="test1",
prompt=f"Elaborate a list of remediations to get to the following improvement: {data['contact_center_improvement']}",
temperature=1,
max_tokens=1968,
top_p=0.5,
frequency_penalty=0,
presence_penalty=0,
best_of=1,
stop=None)
return response["choices"][0]["text"].strip()
if st.button('Create Ticket'):
ticket_number = np.random.randint(1, 1000000)
st.write(
f'Your ticket has been created with number {ticket_number}. Customer and incident manager will be notified shortly')
if st.button('Generate email'):
st.write(generate_email(transcript))
if st.button('Improve customer service quality'):
st.write(improvement(data))
| [
"Elaborate a list of remediations to get to the following improvement: PLACEHOLDER",
"Operator: Good morning, thank you for calling the auto insurance company, my name is John, how can I assist you today?\nCustomer: Yes, hi, I just noticed a dent on the side of my car and I have no idea how it got there. There were no witnesses around and I'm really frustrated.\nOperator: I'm sorry to hear that, I understand how frustrating it can be. Can you please provide me with your name and policy number so I can look up your account?\nCustomer: Yes, I’m Mario Rossi and the policy number is 123456.\nOperator: Thank you Mr. Rossi, let me take a look. I see that you've called earlier today, was there an issue with that call?\nCustomer: Yes, I was on hold for over an hour and the issue was not resolved. I'm really not happy about it.\nOperator: I'm sorry about that, let me assure you that we value your time and we'll do our best to assist you today. As for the dent on your car, I'd like to inform you that our policy does cover accidental damage like this. I can help you file a claim and connect you with one of our trusted repair shops in your area. Would you like me to proceed with that?\nCustomer: Yes, please. That would be great.\nOperator: Thank you for your cooperation. I'm now processing your claim and I'll be sending you an email with the next steps to follow. Please let me know if you have any other questions or concerns.\nCustomer: Thank you, I appreciate your help.\nOperator: You're welcome. Have a great day!\n\n\nGenerate a response email to the transcript above, notifying the customer that the ticket has been created and apologizing if it was complaining. The name of the customer is PLACEHOLDER",
"Operator: Good morning, thank you for calling the auto insurance company, my name is John, how can I assist you today?\nCustomer: Yes, hi, I just noticed a dent on the side of my car and I have no idea how it got there. There were no witnesses around and I'm really frustrated.\nOperator: I'm sorry to hear that, I understand how frustrating it can be. Can you please provide me with your name and policy number so I can look up your account?\nCustomer: Yes, I’m Mario Rossi and the policy number is 123456.\nOperator: Thank you Mr. Rossi, let me take a look. I see that you've called earlier today, was there an issue with that call?\nCustomer: Yes, I was on hold for over an hour and the issue was not resolved. I'm really not happy about it.\nOperator: I'm sorry about that, let me assure you that we value your time and we'll do our best to assist you today. As for the dent on your car, I'd like to inform you that our policy does cover accidental damage like this. I can help you file a claim and connect you with one of our trusted repair shops in your area. Would you like me to proceed with that?\nCustomer: Yes, please. That would be great.\nOperator: Thank you for your cooperation. I'm now processing your claim and I'll be sending you an email with the next steps to follow. Please let me know if you have any other questions or concerns.\nCustomer: Thank you, I appreciate your help.\nOperator: You're welcome. Have a great day!\n\n\nGenerate a response email to the transcript above, notifying the customer that the ticket has been created and apologizing if it was complaining. The name of the customer is PLACEHOLDER and the policy number is PLACEHOLDER."
] |
2024-01-10 | phasetr/generative-ai | 2023-12-21-Modern_Generative_AI_with_ChatGPT_and_OpenAI_Models~Chapter10-Enterprise_use_cases~code~contract_analyzer_app.py | import sys
import toml
import streamlit as st
import openai
with open('secrets.toml', 'r') as f:
config = toml.load(f)
openai.api_type = "azure"
openai.api_key = config['OPENAI_API_KEY']
openai.api_base = config['OPENAI_API_BASE']
openai.api_version = "2022-12-01"
contract = """
This Contract for Services ("Agreement") is entered into as of [date], by and between Company A ("Company") and Company B ("Service Provider").
1. Services Provided. Service Provider agrees to provide the following services to Company (the "Services"): The Service Provider agrees to provide consulting services to the Company in the field of marketing, including but not limited to market research, development of a marketing strategy, and implementation of marketing campaigns. The Service Provider shall provide reports and recommendations to the Company based on the results of the market research and the agreed-upon marketing strategy.
2. Compensation. Company shall pay Service Provider the sum of 1.000.000 (One Million) $ for the Services. Payment shall be made on 15/9/2023.
3. Term. This Agreement shall commence on 1/5/2023 and continue until 31/12/2023, unless earlier terminated by either party upon 30 days' prior written notice.
4. Independent Contractor. Service Provider is an independent contractor, and nothing in this Agreement shall be construed as creating an employer-employee relationship, partnership, or joint venture between the parties.
5. Confidentiality. Service Provider agrees to keep confidential any and all information learned or obtained as a result of providing the Services to Company. Service Provider shall not disclose such information to any third party without Company's prior written consent.
6. Ownership of Work Product. Service Provider agrees that any and all work product produced in connection with the Services shall be the sole property of Company.
7. Representations and Warranties. Service Provider represents and warrants that it has the necessary expertise and experience to perform the Services in a professional and workmanlike manner.
8. Indemnification. Service Provider agrees to indemnify and hold harmless Company, its officers, directors, employees, and agents from and against any and all claims, damages, liabilities, costs, and expenses arising out of or in connection with the Services.
9. Governing Law. This Agreement shall be governed by and construed in accordance with the laws of Italy without regard to conflicts of laws principles.
10. Entire Agreement. This Agreement constitutes the entire agreement between the parties and supersedes all prior or contemporaneous negotiations, agreements, representations, and understandings between the parties, whether written or oral.
IN WITNESS WHEREOF, the parties have executed this Agreement as of the date first above written.
[Signature block for Company]
[Signature block for Service Provider]
"""
st.set_page_config(
page_title="Home",
page_icon="📝",
)
st.header("Welcome to Contract Analyzer portal 📝")
st.subheader('Contract #371')
st.write(contract)
st.subheader('Key clauses extraction 🔍')
col1, col2 = st.columns(2)
with col1:
request = st.selectbox(
'Select the key clause you want to extract',
("What is the termination clause?", "what is the confidentiality clause?",
"what is the compensation and the due date?", "what is the indemnification clause?"))
with col2:
if request:
completions = openai.Completion.create(
engine="test1",
prompt=contract + request,
max_tokens=2000,
n=1,
stop=None,
temperature=0,
)
response = completions.choices[0].text.strip()
st.write('\n\n\n' + response)
st.subheader('Analyzing language 💬')
col3, col4 = st.columns(2)
with col3:
user_input = st.text_input("You:", "")
with col4:
if user_input:
completions = openai.Completion.create(
engine="test1",
prompt=contract + user_input,
max_tokens=2000,
n=1,
stop=None,
temperature=0,
)
response = completions.choices[0].text.strip()
st.write('\n\n\n' + response)
st.subheader('Flagging potential issues 🚩')
col5, col6 = st.columns(2)
with col5:
request = st.selectbox(
'Select the key clause you want to extract',
("Are there ambiguities?", "Are there conflicting terms?"))
with col6:
if request:
completions = openai.Completion.create(
engine="test1",
prompt=contract + request,
max_tokens=2000,
n=1,
stop=None,
temperature=0,
)
response = completions.choices[0].text.strip()
st.write('\n\n\n' + response)
st.subheader('Contract Templates 🖋️')
col7, col8 = st.columns(2)
with col7:
service_provider = st.text_input("Service provider:", "")
client = st.text_input("Client:", "")
services_description = st.text_input("Service description:", "")
start_date = st.text_input("Start date:", "")
duration = st.text_input("Duration:", "")
with col8:
if st.button('Generate template'):
completions = openai.Completion.create(
engine="test1",
prompt=f"Generate a Service Delivery Agreement with the following elements: Service Provider: {service_provider}, Client: {client}, Description of Services: {services_description}, Start Date: {start_date}, Duration: {duration}",
max_tokens=2000,
n=1,
stop=None,
temperature=0,
)
response = completions.choices[0].text.strip()
st.write('\n\n\n' + response)
| [
"\n\nThis Contract for Services (\"Agreement\") is entered into as of [date], by and between Company A (\"Company\") and Company B (\"Service Provider\").\n1.\tServices Provided. Service Provider agrees to provide the following services to Company (the \"Services\"): The Service Provider agrees to provide consulting services to the Company in the field of marketing, including but not limited to market research, development of a marketing strategy, and implementation of marketing campaigns. The Service Provider shall provide reports and recommendations to the Company based on the results of the market research and the agreed-upon marketing strategy.\n2.\tCompensation. Company shall pay Service Provider the sum of 1.000.000 (One Million) $ for the Services. Payment shall be made on 15/9/2023.\n3.\tTerm. This Agreement shall commence on 1/5/2023 and continue until 31/12/2023, unless earlier terminated by either party upon 30 days' prior written notice.\n4.\tIndependent Contractor. Service Provider is an independent contractor, and nothing in this Agreement shall be construed as creating an employer-employee relationship, partnership, or joint venture between the parties.\n5.\tConfidentiality. Service Provider agrees to keep confidential any and all information learned or obtained as a result of providing the Services to Company. Service Provider shall not disclose such information to any third party without Company's prior written consent.\n6.\tOwnership of Work Product. Service Provider agrees that any and all work product produced in connection with the Services shall be the sole property of Company.\n7.\tRepresentations and Warranties. Service Provider represents and warrants that it has the necessary expertise and experience to perform the Services in a professional and workmanlike manner.\n8.\tIndemnification. Service Provider agrees to indemnify and hold harmless Company, its officers, directors, employees, and agents from and against any and all claims, damages, liabilities, costs, and expenses arising out of or in connection with the Services.\n9.\tGoverning Law. This Agreement shall be governed by and construed in accordance with the laws of Italy without regard to conflicts of laws principles.\n10.\tEntire Agreement. This Agreement constitutes the entire agreement between the parties and supersedes all prior or contemporaneous negotiations, agreements, representations, and understandings between the parties, whether written or oral.\nIN WITNESS WHEREOF, the parties have executed this Agreement as of the date first above written.\n[Signature block for Company]\n[Signature block for Service Provider]\n\nPLACEHOLDER",
"Generate a Service Delivery Agreement with the following elements: Service Provider: PLACEHOLDER, Client: PLACEHOLDER, Description of Services: PLACEHOLDER, Start Date: PLACEHOLDER, Duration: PLACEHOLDER"
] |
2024-01-10 | phasetr/generative-ai | 2023-11-26-hackathon-note~2_img_to_mp3.py | import os
from uuid_extensions import uuid7str
from openai import OpenAI
from pathlib import Path
import base64
def encode_image(image_path):
"""画像をbase64にエンコードする"""
with open(image_path, "rb") as image_file:
return base64.b64encode(image_file.read()).decode("utf-8")
sample_img_name = "img/1.jpg"
is_exist = os.path.exists(sample_img_name)
if not is_exist:
print(f"{sample_img_name}を作成してください。")
exit()
base64_img = encode_image(sample_img_name)
mp3_directory_name = "mp3"
mp3_path = f"{mp3_directory_name}/{uuid7str()}.mp3"
# ディレクトリがなければ作る
if not os.path.exists(mp3_directory_name):
os.mkdir(mp3_directory_name)
print("音声ファイルを作成します。")
client = OpenAI()
response = client.chat.completions.create(
model="gpt-4-vision-preview",
messages=[
{
"role": "user",
"content": [
{"type": "text", "text": "日本語で説明してください"}, # ここに質問を書く
# 画像の指定の仕方がちょい複雑
{"type": "image_url",
"image_url": f"data:image/jpeg;base64,{base64_img}"},
]
},
],
max_tokens=600,
)
# 応答からテキスト内容を取得
content_text = response.choices[0].message.content.strip()
# Text-to-Speechを使用してテキストを音声に変換
audio_response = client.audio.speech.create(
model="tts-1",
voice="nova",
input=content_text
)
# テキストの出力
print(content_text)
# 音声ファイルに出力
audio_response.stream_to_file(mp3_path)
print(f"音声ファイルを作成しました: {mp3_path}")
| [
"[{'type': 'text', 'text': '日本語で説明してください'}, {'type': 'image_url', 'image_url': 'data:image/jpeg;base64,PLACEHOLDER'}]"
] |
2024-01-10 | Azure-Samples/flask-app-on-azure-functions | FlaskApp~__init__.py | from flask import Flask
# Always use relative import for custom module
from .package.module import MODULE_VALUE
app = Flask(__name__)
@app.route("/")
def index():
return (
"Try /hello/Chris for parameterized Flask route.\n"
"Try /module for module import guidance"
)
@app.route("/hello/<name>", methods=['GET'])
def hello(name: str):
return f"hello {name}"
@app.route("/module")
def module():
return f"loaded from FlaskApp.package.module = {MODULE_VALUE}"
if __name__ == "__main__":
app.run() | [] |
2024-01-10 | Crazykrai/MakeUC2023 | search.py | import os
import openai
import json
import re
from googleapiclient.discovery import build
from dotenv import load_dotenv
from bs4 import BeautifulSoup
from urllib.request import Request, urlopen
load_dotenv()
apiKey = os.getenv('GOOGLE_API_KEY')
seId = os.getenv('GOOGLE_CSE_ID')
openai.api_key = os.getenv('GPT_KEY')
def google_search(search_term, api_key, cse_id, **kwargs):
service = build("customsearch", "v1", developerKey=api_key)
res = service.cse().list(q=search_term, cx=cse_id, **kwargs).execute()
return res['items']
def query_google(q):
return google_search(q, apiKey, seId, num=3)
async def gpt_summarize(q):
text = re.sub(r'\s+', ' ', get_page_text(q))
print(text)
link = q['link']
result = openai.ChatCompletion.create(model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Create a 2 sentence summary of a website's content using the given text from the website alongside the URL: " + link + " - " + text}])
return result
def get_page_text(pageObject):
req = Request(pageObject['link'],headers={'User-Agent': 'Mozilla/5.0'})
html_page = urlopen(req).read()
soup = BeautifulSoup(html_page, 'html.parser')
text = soup.getText()
soupLen = len(text)
if soupLen > 3000:
text = text[:3000]
return text
#print(json.dumps(query_google("honda civic si"), indent=2)) | [
"Create a 2 sentence summary of a website's content using the given text from the website alongside the URL: PLACEHOLDER - PLACEHOLDER"
] |
2024-01-10 | aweidner/ScryBot | scrybot~api~search.py | import sys
import asyncio
import openai
async def search(query):
completion = await openai.ChatCompletion.acreate(
model="ft:gpt-3.5-turbo-0613:personal::8MPbjnyY",
messages=[
{"role": "system", "content": "Act as a scryfall api bot that accepts a user query and translates it into a search URL. Output only the url."},
{"role": "user", "content": query}
],
temperature=0.0,
)
return completion.choices[0].message
def main():
print(asyncio.run(search(sys.argv[1])))
if __name__ == "__main__":
main() | [
"Act as a scryfall api bot that accepts a user query and translates it into a search URL. Output only the url."
] |
2024-01-10 | cancelself/geist | geist.py | import os
import sys
import glob
import json
import openai
import pickle
import getpass
from datetime import datetime
def load_chat_history(file_path):
try:
with open(file_path, 'rb') as f:
chat_history = pickle.load(f)
except FileNotFoundError:
chat_history = []
return chat_history
def save_chat_history(file_path, chat_history):
with open(file_path, 'wb') as f:
pickle.dump(chat_history, f)
if len(sys.argv) < 2:
print("Usage: geist.py <openai_api_path> <user_input>")
sys.exit(1)
openai.api_key_path = sys.argv[1]
chatml_path = os.path.dirname(os.path.abspath(__file__))
chatml_files = glob.glob(chatml_path + "/*.chatml")
chat_history_path = 'geist.pkl'
chatml = []
for chatml_file in chatml_files:
with open(chatml_file, "r") as f:
lines = f.readlines()
for line in lines:
message = json.loads(line)
current_timestamp = datetime.utcnow().isoformat().split('.')[0] + "Z"
common_fields = {
'role': message['role'],
'content': message['content']
}
if 'name' in message:
common_fields['name'] = message['name']
chatml.append(common_fields)
chat_history = chatml + load_chat_history(chat_history_path)
user_input = sys.argv[2]
whoiam = getpass.getuser()
current_timestamp = datetime.utcnow().isoformat().split('.')[0] + "Z "
prompt = {"role": "user", "content": current_timestamp + user_input, "name": whoiam}
completion = openai.ChatCompletion.create(
model="gpt-4",
#model = "gpt-3.5-turbo",
messages = chat_history + [prompt],
)
chat_history.append(prompt)
for message in chat_history:
print(message)
current_timestamp = datetime.utcnow().isoformat().split('.')[0] + "Z"
response_message = completion["choices"][0]["message"]["content"]
chat_history.append({'role': 'assistant', 'content': response_message, 'name': 'geist'})
print(response_message)
save_chat_history(chat_history_path, chat_history) | [
"{'role': 'user', 'content': 'PLACEHOLDERPLACEHOLDER', 'name': PLACEHOLDER}",
"content",
"PLACEHOLDERPLACEHOLDER"
] |
2024-01-10 | maioria/chatgpt-talkieai | talkieai-server~app~ai~chat_gpt_ai.py | from typing import List, Dict
import json
from pydantic import BaseModel
from app.ai.interfaces import SystemBaseAI, MessageInvokeDTO
from app.ai.models import *
from app.core.logging import logging
class ChatGPTInvokeDTO(BaseModel):
messages: List[Dict]
model: str = 'gpt-3.5-turbo'
temperature: float = 0.5
max_tokens: int = 100
class ChatGptRemoteAI(SystemBaseAI):
""" 通过http远程调用的接口 """
def __init__(self, api_key:str, organization:str,server_url :str):
import requests
session = requests.Session()
session.trust_env = False
self.session = session
self.api_key = api_key
self.organization = organization
self.server_url = server_url
def _original_invoke_chat(self, dto: MessageInvokeDTO):
headers = {
"Content-Type": "application/json",
"Api-Key": self.api_key,
"Organization": self.organization
}
url = f'{self.server_url}/api/v1/chat'
request_dto = ChatGPTInvokeDTO(messages=dto.messages)
logging.info(f'request_dto:{request_dto.dict()}')
remote_result = self.session.post(url, data=json.dumps(request_dto.dict()), headers=headers)
result = remote_result.text
logging.info(f'response:{result}')
json_result = json.loads(result)
return json_result
class ChatGptLocalAI(SystemBaseAI):
"""本地直接调用openai的接口"""
def __init__(self, api_key:str, organization:str):
import openai
self.api_key = api_key
self.organization = organization
self.openai = openai
def _original_invoke_chat(self, dto: MessageInvokeDTO):
request_dto = ChatGPTInvokeDTO(messages=dto.messages)
logging.info(f'request_dto:{request_dto.dict()}')
response = self.openai.ChatCompletion.create(
api_key=self.api_key,
organization=self.organization,
model=request_dto.model,
messages=request_dto.messages
)
result = response.choices[0].message.content
return result | [] |
2024-01-10 | jasonthewhale/Indigenous_AI | story_generator.py | import streamlit as st
import pandas as pd
import numpy as np
import openai
openai.organization = "org-tlNrDekRRlExHL1gWb7oCHPD"
openai.api_key = st.secrets["OPENAI_API_KEY"]
df = pd.read_csv('./datasets/indigenous_map.csv')
for _, row in df.iterrows():
language_name = row['Language']
new_url = f"https://maps.slq.qld.gov.au/iyil/assets/img/thumbs/{language_name}.jpg"
df.loc[_, 'Image URL'] = new_url
@st.cache_data
def get_map_data():
df_location = pd.DataFrame()
df_location['Language'] = df['Language']
df_location[['lat', 'lon']] = df['Coordinates 1'].str.split(',', expand=True).astype(float)
df_location['size'] = np.full(len(df_location), 3)
df_location['color'] = generate_random_colors(len(df_location))
# df_location['Synonyms'] = df['Synonyms']
return df_location
def get_language_df(language):
return df[df.Language == language]
def get_language_index(language):
return df[df.Language == language].index[0]
def search_language_for_info(language):
language_row = df[df.Language == language]
info = f"""Name: {language_row['Language'].values[0]}
Pronunciation: {language_row['Pronunciation'].values[0]}
Introduction: {language_row['Introduction'].values[0]}
Locations: {language_row['Locations'].values[0]}
Synonyms: {language_row['Synonyms'].values[0]}
Common words: {language_row['Common words'].values[0]}
Image attribution: {language_row['Image attribution'].values[0]}
"""
return info
@st.cache_data
def tell_story(language_info):
prompt = f"""
Here is the info about an indigenous language in QLD. Help me create a \
short and brief, but fascinating story involves language name, introduction, \
pronunciation, Synonyms, Common words. Also set the background or scene of \
the story as value of "Locations", describing a story bsaed on image attribution. \
Pls keep in at most three paragraphs.
{language_info}
"""
completion = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "user", "content": prompt}
]
)
return completion.choices[0].message["content"]
def main(language):
language_info = search_language_for_info(language)
tell_story(language_info)
def get_image(language):
language_row = df[df.Language == language]
return language_row['Image URL'].values[0]
def label_story(language, story):
indigenous_words = []
new_str = story
language_row = df[df.Language == language]
indigenous_phrases = language_row['Common words'].values[0]
if type(indigenous_phrases) != str:
return new_str
indigenous_pairs = indigenous_phrases.split('; ')
for pair in indigenous_pairs:
indigenous_words.append(pair.split(' - ')[1])
for word in indigenous_words:
new_str = new_str.replace(word, f"**:blue[{word}]**")
return new_str
def generate_random_colors(n):
colors = np.random.randint(0, 256, size=(n, 3))
return np.array([f"rgb({r}, {g}, {b})" for r, g, b in colors])
| [
"\nHere is the info about an indigenous language in QLD. Help me create a short and brief, but fascinating story involves language name, introduction, pronunciation, Synonyms, Common words. Also set the background or scene of the story as value of \"Locations\", describing a story bsaed on image attribution. Pls keep in at most three paragraphs.\n\nPLACEHOLDER\n"
] |
2024-01-10 | wshao12/ChatGPT | src~revChatGPT~ProxyServer.py | """
Fetches cookies from chat.openai.com and returns them (Flask)
"""
from OpenAIAuth.Cloudflare import Cloudflare
from flask import Flask, request, jsonify
import tls_client
import json
app = Flask(__name__)
session = tls_client.Session(
client_identifier="chrome_108"
)
# Get cloudflare cookies
cf_clearance, user_agent = Cloudflare().get_cf_cookies()
@app.route('/backend-api/conversation', methods=['POST'])
def conversation():
# Get cookies from request
cookies = {
"cf_clearance": cf_clearance,
"__Secure-next-auth.session-token": request.cookies.get("__Secure-next-auth.session-token"),
}
# Get JSON payload from request
payload = request.get_json()
# Set user agent
headers ={
"Accept": "text/event-stream",
"Authorization": request.headers.get("Authorization"),
"User-Agent": user_agent,
"Content-Type": "application/json",
"X-Openai-Assistant-App-Id": "",
"Connection": "close",
"Accept-Language": "en-US,en;q=0.9",
"Referer": "https://chat.openai.com/chat",
}
# Send request to OpenAI
response = session.post(
url="https://chat.openai.com/backend-api/conversation",
headers=headers,
cookies=cookies,
data=json.dumps(payload),
timeout_seconds=360
)
# Return response
return response.text
if __name__ == '__main__':
app.run(debug=True)
| [] |
2024-01-10 | abuzarmahmood/KatzGPT | katz_gpt_test.py | """
https://levelup.gitconnected.com/langchain-for-multiple-pdf-files-87c966e0c032
"""
from langchain.document_loaders import PyPDFLoader, PyPDFDirectoryLoader
from glob import glob
import os
from tqdm import tqdm
from joblib import Parallel, delayed
from pickle import dump, load
from langchain.embeddings import OpenAIEmbeddings
from langchain.vectorstores import Chroma
from langchain.chains import ConversationalRetrievalChain, RetrievalQA
from langchain.memory import ConversationBufferMemory
from langchain.llms import OpenAI
from langchain.chains import LLMChain
from langchain.chains.qa_with_sources import load_qa_with_sources_chain
from langchain.prompts.prompt import PromptTemplate
def parallelize(data, func, num_of_processes=8):
return Parallel(n_jobs=num_of_processes)(delayed(func)(i) for i in tqdm(data))
def try_load(this_path):
try:
loader = PyPDFLoader(this_path)
docs = loader.load()
return docs
except:
print(f'Load failed : {this_path}')
return None
############################################################
## Generate Docs
############################################################
docs_path = '/media/bigdata/projects/istyar/data/abu_zotero'
file_list = glob(os.path.join(docs_path, "*"))
vector_persist_dir = '/media/bigdata/projects/katzGPT/vector_store'
docs_output_dir = '/media/bigdata/projects/katzGPT/docs'
docs_output_path = os.path.join(docs_output_dir, 'docs.pkl')
if not os.path.exists(vector_persist_dir):
os.makedirs(vector_persist_dir)
if not os.path.exists(docs_output_dir):
os.makedirs(docs_output_dir)
if not os.path.exists(docs_output_path):
docs_list = parallelize(file_list, try_load, num_of_processes=24)
# Drop None
docs_list = [doc for doc in docs_list if doc is not None]
# Flatten list
docs_list = [item for sublist in docs_list for item in sublist]
# Extract document source from each document
doc_source = [doc.metadata['source'] for doc in docs_list]
## Count length of set of document source
#len(set(doc_source))
# Save docs
with open(docs_output_path, 'wb') as f:
dump(docs_list, f)
else:
docs_list = load(open(docs_output_path, 'rb'))
############################################################
# Generate Embeddings
############################################################
embeddings = OpenAIEmbeddings()
vectordb = Chroma.from_documents([docs_list[0]], embedding=embeddings,
persist_directory=vector_persist_dir)
vectordb.persist()
for doc in tqdm(docs_list):
vectordb.add_documents([doc])
vectordb.persist()
memory = ConversationBufferMemory(
memory_key="chat_history",
return_messages=True)
pdf_qa = ConversationalRetrievalChain.from_llm(
llm = OpenAI(temperature=0.8) ,
retriever = vectordb.as_retriever(),
# return_source_documents=True,
memory=memory,
max_tokens_limit = 3500,
)
query = "Which katz lab papers discuss attractor networks?"
result = pdf_qa({"question": query})
print(result)
##############################
prompt="""
Follow exactly those 3 steps:
1. Read the context below and aggregrate this data
Context : {matching_engine_response}
2. Answer the question using only this context
3. Show the source for your answers
User Question: {question}
If you don't have any context and are unsure of the answer, reply that you don't know about this topic.
"""
question_prompt = PromptTemplate.from_template(
template=prompt,
)
question_generator = LLMChain(
llm=llm,
prompt=question_prompt,
verbose=True,
)
llm = OpenAI(temperature=0)
doc_chain = load_qa_with_sources_chain(llm)
chain = ConversationalRetrievalChain(
retriever=vectordb.as_retriever(),
combine_docs_chain=doc_chain,
return_source_documents=True,
query_generator=question_generator,
memory=memory,
max_tokens_limit = 3500,
)
##############################
embeddings = OpenAIEmbeddings()
vectordb = Chroma(persist_directory=vector_persist_dir,
embedding_function=embeddings)
template = """You are an AI assistant for answering questions about systems neuroscience, specifically taste processing.
You are given the following extracted parts of a long document and a question. Provide a conversational answer.
If you don't know the answer, just say "Hmm, I'm not sure." Don't try to make up an answer.
Question: {question}
=========
{context}
=========
Answer in Markdown:"""
QA_PROMPT = PromptTemplate(
template=template,
input_variables=[
"question",
"context"
]
)
llm = OpenAI(temperature=0.8)
question_generator = LLMChain(
llm=llm,
prompt=QA_PROMPT,
verbose=True,
)
doc_chain = load_qa_with_sources_chain(llm,
chain_type = 'stuff')
memory = ConversationBufferMemory(
memory_key="chat_history",
input_key="question",
output_key="answer",
return_messages=True)
retriever = vectordb.as_retriever(
search_kwargs = {"k":5})
pdf_qa = ConversationalRetrievalChain(
retriever=retriever,
question_generator=question_generator,
combine_docs_chain=doc_chain,
return_source_documents=True,
memory=memory,
max_tokens_limit = 2000,
rephrase_question = False,
verbose=True,
)
query = "Where is the gustatory thalamus?"
result = pdf_qa({"question": query})
for this_key in result.keys():
if this_key not in ['chat_history', 'source_documents']:
print()
print(f"{this_key} : {result[this_key]}")
| [
"question",
"You are an AI assistant for answering questions about systems neuroscience, specifically taste processing.\nYou are given the following extracted parts of a long document and a question. Provide a conversational answer.\nIf you don't know the answer, just say \"Hmm, I'm not sure.\" Don't try to make up an answer.\nQuestion: {question}\n=========\n{context}\n=========\nAnswer in Markdown:",
"context",
"\nFollow exactly those 3 steps:\n1. Read the context below and aggregrate this data\nContext : {matching_engine_response}\n2. Answer the question using only this context\n3. Show the source for your answers\nUser Question: {question}\n\n\nIf you don't have any context and are unsure of the answer, reply that you don't know about this topic.\n"
] |
2024-01-10 | aishvi-g/healthease | templates~telebot~medease.py | import cohere
import os
from health_data import health_database, train_data
from azure.ai.translation.text import TextTranslationClient, TranslatorCredential
from azure.ai.translation.text.models import InputTextItem
api_key = os.environ['API_KEY']
azure_key = os.environ['azure_key']
endpoints = os.environ['endpoint']
region = os.environ['region']
credential = TranslatorCredential(azure_key, region)
text_translator = TextTranslationClient(endpoint=endpoints,
credential=credential)
co = cohere.Client(api_key)
class cohereExtractor():
def __init__(self, examples, example_labels, labels, task_desciption,
example_prompt):
self.examples = examples
self.example_labels = example_labels
self.labels = labels
self.task_desciption = task_desciption
self.example_prompt = example_prompt
def make_prompt(self, example):
examples = self.examples + [example]
labels = self.example_labels + [""]
return (self.task_desciption + "\n---\n".join([
examples[i] + "\n" + self.example_prompt + labels[i]
for i in range(len(examples))
]))
def extract(self, example):
extraction = co.generate(model='xlarge',
prompt=self.make_prompt(example),
max_tokens=15,
temperature=0.1,
stop_sequences=["\n"])
return (extraction.generations[0].text[:-1])
cohereHealthExtractor = cohereExtractor(
[e[1] for e in train_data], [e[0] for e in train_data], [], "",
"extract the Keywords from the medical terminology related answers:")
text = cohereHealthExtractor.make_prompt(
'What are alternatives for paracetamol')
target_language_code = "en"
def translate_text(text, target_language):
target_languages = [target_language]
input_text_elements = [InputTextItem(text=text)]
response = text_translator.translate(content=input_text_elements,
to=target_languages)
translation = response[0] if response else None
if translation:
for translated_text in translation.translations:
return translated_text.text
else:
return text
def extract_keywords(input_text):
extraction = cohereHealthExtractor.extract(input_text)
keywords = extraction.split(',')
keywords = [keyword.strip().lower() for keyword in keywords]
return keywords
def search_answer(keywords):
for keyword, answer in health_database:
if keyword.lower() in keywords:
return answer
return "I'm sorry, but I'm unable to provide information on that topic. For accurate and reliable information, please consult a healthcare professional or trusted educational resources."
def generate_response(user_input, target_language):
keywords = extract_keywords(user_input)
answer = search_answer(keywords)
translated_answer = translate_text(answer, target_language)
return translated_answer + "\n\n" + "Keywords: " + ", ".join(keywords)
| [] |
2024-01-10 | sahuidhsu/GPT-KUnit-coder | display_messages.py | import toml
import openai
log_file = open("message_log.txt", "w")
with open("config.toml") as config_file:
config = toml.load(config_file)
if not config["OPENAI_API_KEY"]:
print("ERROR! Please set your OPENAI_API_KEY in config.toml")
exit()
def write_output(msg):
print(msg)
log_file.write(msg + "\n")
client = openai.Client(api_key=config["OPENAI_API_KEY"])
messages = client.beta.threads.messages.list(thread_id=config["THREAD_ID"])
contents = []
roles = []
for this_msg in messages.data:
roles.append(this_msg.role)
contents.append(this_msg.content[0].text.value)
contents.reverse()
roles.reverse()
write_output("-" * 70)
for i in range(len(contents)):
write_output("[" + roles[i] + "]")
write_output("-" * 70)
write_output(contents[i])
write_output("-" * 70)
| [] |
2024-01-10 | chuanyang-Zheng/Progressive-Hint | main_clean.py | import copy
import os
import time
import jsonlines
import openai
import json
import re
import numpy as np
from utils import delete_extra_zero,_strip_string
import argparse
from statistics import mean
from collections import Counter
import traceback
# OpenAI Key
openai.api_key = "Put Your Key Here"
def find_math_answer(s):
assert('boxed' in s)
# s = s.replace(",", "")
ans = s.split('boxed')[-1]
if(ans[0] == '{'):
stack = 1
a = ''
for c in ans[1:]:
if(c == '{'):
stack += 1
a += c
elif(c == '}'):
stack -= 1
if(stack == 0): break
a += c
else:
a += c
else:
a = ans.split('$')[0].strip()
a=_strip_string(a)
return a
def extract_math_answer(pred_str):
if('The answer is ' in pred_str):
pred = pred_str.split('The answer is ')[-1].strip()
elif('the answer is ' in pred_str):
pred = pred_str.split('the answer is ')[-1].strip()
elif 'boxed' in pred_str:
ans = pred_str.split('boxed')[-1]
if (ans[0] == '{'):
stack = 1
a = ''
for c in ans[1:]:
if (c == '{'):
stack += 1
a += c
elif (c == '}'):
stack -= 1
if (stack == 0): break
a += c
else:
a += c
else:
a = ans.split('$')[0].strip()
a = _strip_string(a)
pred=a
else:
pattern = '-?\d*\.?\d+'
pred = re.findall(pattern, pred_str)
if(len(pred) >= 1):
# print(pred_str)
pred = pred[-1]
else: pred = ''
if pred != "":
if pred[-1] == ".":
pred = pred[:-1]
if pred[-1] == "/":
pred = pred[:-1]
pred=_strip_string(pred)
if 'boxed' in pred:
ans = pred.split('boxed')[-1]
if (ans[0] == '{'):
stack = 1
a = ''
for c in ans[1:]:
if (c == '{'):
stack += 1
a += c
elif (c == '}'):
stack -= 1
if (stack == 0): break
a += c
else:
a += c
else:
a = ans.split('$')[0].strip()
a = _strip_string(a)
pred=a
return pred
def data_reader(args):
questions = []
answers = []
decoder = json.JSONDecoder()
if args.dataset == "aqua":
with open(args.dataset_path) as f:
lines = f.readlines()
for line in lines:
json_res = decoder.raw_decode(line)[0]
choice = "(" + "(".join(json_res["options"])
choice = choice.replace("(", " (").replace(")", ") ")
choice = "Answer Choices:" + choice
questions.append(json_res["question"].strip() + " " + choice)
answers.append(json_res["correct"])
elif args.dataset in ["algebra","counting_and_probability","geometry","intermediate_algebra","number_theory","prealgebra","precalculus"]:
for filename in os.listdir(args.dataset_path):
if (filename.endswith('.json')):
d = json.load(open(args.dataset_path + '/' + filename))
questions.append(d['problem'])
answers.append(find_math_answer(d['solution']))
elif args.dataset == "gsm8k":
with open(args.dataset_path) as f:
lines = f.readlines()
for line in lines:
json_res = decoder.raw_decode(line)[0]
questions.append(json_res["question"].strip())
answers.append(delete_extra_zero(json_res["answer"].split("#### ")[-1].replace(",", "")))
elif args.dataset in ("addsub", "multiarith", "singleeq"):
with open(args.dataset_path) as f:
json_data = json.load(f)
for line in json_data:
q = line["sQuestion"].strip()
a = str(line["lSolutions"][0])
if a[-2:] == ".0":
a = a[:-2]
questions.append(q)
answers.append(delete_extra_zero(a))
elif args.dataset == "svamp":
with open(args.dataset_path) as f:
json_data = json.load(f)
for line in json_data:
q = line["Body"].strip() + " " + line["Question"].strip()
a = str(line["Answer"])
if a[-2:] == ".0":
a = a[:-2]
questions.append(q)
answers.append(delete_extra_zero(a))
else:
raise ValueError("dataset is not properly defined ...")
q_len_list = []
for q in questions:
q_len_list.append(len(q.split(" ")))
q_len_mean = mean(q_len_list)
print("dataset : {}".format(args.dataset))
print("data size : {}".format(len(answers)))
print("average num of words for each sample : {}".format(q_len_mean))
return questions, answers
def answer_cleansing(args, pred):
# print("pred_before : " + pred)
if args.dataset in ["algebra","counting_and_probability","geometry","intermediate_algebra","number_theory","prealgebra","precalculus"]:
# pred = pred.replace(",", "")
pred_final=extract_math_answer(pred)
return pred_final
if args.method in ("few_shot", "few_shot_cot"):
preds = pred.split(args.direct_answer_trigger_for_fewshot)
answer_flag = True if len(preds) > 1 else False
pred = preds[-1]
if args.dataset in ("aqua"):
pred = pred.upper()
# print(pred)
pred = re.findall(r'A|B|C|D|E', pred)
elif args.dataset in ("gsm8k", "addsub", "multiarith", "svamp", "singleeq"):
pred=pred.replace(",", "")
pred = [delete_extra_zero(s.replace(",", "")) for s in re.findall(r'-?\d+/?\.?\d*', pred)]
else:
raise ValueError("dataset is not properly defined ...")
# If there is no candidate in list, null is set.
if len(pred) == 0:
pred = ""
else:
if args.method in ("few_shot", "few_shot_cot"):
if answer_flag:
# choose the first element in list ...
pred = pred[0]
else:
# choose the last element in list ...
pred = pred[-1]
elif args.method in ("zero_shot", "zero_shot_cot"):
# choose the first element in list ...
pred = pred[0]
else:
raise ValueError("method is not properly defined ...")
# (For arithmetic tasks) if a word ends with period, it will be omitted ...
if pred != "":
if pred[-1] == ".":
pred = pred[:-1]
if pred[-1] == "/":
pred = pred[:-1]
return pred
def answer_clean(args, pred):
if args.dataset in ['aqua']:
pred_answer = answer_cleansing(args, copy.deepcopy(pred))
return pred_answer, "({})".format(pred_answer)
else:
pred_answer = answer_cleansing(args, copy.deepcopy(pred))
return pred_answer, pred_answer
def answer_clean_all(args, pred):
pred_answer_list = []
pred_answer_list_hint_list = []
for index_len in range(len(pred)):
# print(pred[index_len]['text'])
if args.eng in ["gpt-3.5-turbo", "gpt-4"]:
pred_answer, pred_answer_hint = answer_clean(args, pred[index_len]["message"]["content"].strip())
else:
pred_answer, pred_answer_hint = answer_clean(args, pred[index_len]["text"].strip())
pred_answer_list.append(pred_answer)
pred_answer_list_hint_list.append(pred_answer_hint)
most_answer=Counter(copy.deepcopy(pred_answer_list)).most_common()[0][0]
pred_answer_list_hint_list_new=[]
for element in pred_answer_list_hint_list:
if element.__contains__(most_answer):
pred_answer_list_hint_list_new.append(element)
pred_answer_list_hint_list=pred_answer_list_hint_list_new
return Counter(copy.deepcopy(pred_answer_list)).most_common()[0][0], Counter(pred_answer_list_hint_list).most_common()[0][0]
def create_response(prompt_input, eng='text-davinci-002', max_tokens=256, temperature=0.0, stop="Q"):
response = openai.Completion.create(
engine=eng,
prompt=prompt_input,
temperature=temperature,
max_tokens=max_tokens,
top_p=1,
frequency_penalty=0.0,
presence_penalty=0.0,
stop=["{}:".format(stop)]
)
return response
def create_response_chat(prompt_input, eng='text-davinci-002', max_tokens=256, temperature=0.0, stop="Q"):
response = openai.ChatCompletion.create(
model=eng,
messages=prompt_input,
temperature=temperature,
)
return response
def create_repeat_list(input_string, number):
prompt_input_list = []
for index_sample in range(number):
prompt_input_list.append(input_string)
return prompt_input_list
def get_answer_from_gpt_sample(prompt, question, eng='text-davinci-002', max_tokens=256, temperature=0.0,
question_string="ori", args=None):
# batch=20
count_total = args.sample
response_all = []
if eng in ["gpt-3.5-turbo","gpt-4"]:
if question_string == "ori":
prompt_input = prompt + "\n\nQ: {}\nA:".format(question)
response = create_response_chat([
{"role": "system", "content": "Follow the given examples and answer the question."},
{"role": "user", "content": prompt_input},
], eng, max_tokens, temperature, "Q")
response_all = response['choices']
elif question_string == "complex":
prompt_input = prompt + "\n\nQuestion: {}\nA:".format(question)
response = create_response_chat([
{"role": "system", "content": "Follow the given examples and answer the question."},
{"role": "user", "content": prompt_input},
], eng, max_tokens, temperature, "Question")
response_all = response['choices']
return response['choices'][0]['message']["content"].strip(), response_all
else:
if question_string == "ori":
prompt_input = prompt + "\n\nQ: {}\nA:".format(question)
if args.sample > 1:
# prompt_input_list=[]
while count_total > 0:
repeat_this = min(5, count_total)
prompt_input_list = create_repeat_list(prompt_input, repeat_this)
response = create_response(prompt_input_list, eng, max_tokens, temperature)
response_all.extend(response['choices'])
count_total = count_total - repeat_this
else:
response = create_response(prompt_input, eng, max_tokens, temperature, "Q")
response_all = response['choices']
elif question_string == "complex":
prompt_input = prompt + "\n\nQuestion: {}\nA:".format(question)
# print(prompt_input)
if args.sample > 1:
# prompt_input_list=[]
while count_total > 0:
repeat_this = min(5, count_total)
prompt_input_list = (create_repeat_list(prompt_input, repeat_this))
response = create_response(prompt_input_list, eng, max_tokens, temperature)
response_all.extend(response['choices'])
count_total = count_total - repeat_this
else:
response = create_response(prompt_input, eng, max_tokens, temperature, "Question")
response_all = response['choices']
# print(response)
return response['choices'][0]['text'].strip(), response_all
def main():
parser = argparse.ArgumentParser()
parser.add_argument("--prompt_dir", default=None, type=str, required=True, help="directory to prompt file (.txt)")
parser.add_argument("--hint", default="None", type=str,
help="directory to progressive-hint prompt file (.txt)")
parser.add_argument("--eng", default=None, type=str, required=True, help="engine")
parser.add_argument("--num_test", default=400, type=int, help="number of samples tested. -1 if on all test samples")
parser.add_argument("--seed", default=1357, type=int, help="random seed")
parser.add_argument("--temp", default=0.0, type=float, help="temperature for generation")
parser.add_argument("--temp2", default=-1, type=float, help="temperature for progressive-hint generation")
parser.add_argument("--max_tokens", default=1024, type=int, help="max # of tokens for generation")
parser.add_argument("--test_ind", default=None, type=str,
help="dir to test indices. If not provided, randomly choose.")
parser.add_argument("--suffix", default="", type=str, help="")
parser.add_argument("--hint_length", default=2, type=int,
help="return after the last hint_lenght answers are the same")
parser.add_argument("--direct_answer_trigger_for_fewshot", default="The answer is", type=str,
help="used for extract answer")
parser.add_argument("--method", default="few_shot", type=str,
help="we use prompt so that the method is few-shot")
parser.add_argument("--dataset", default="", type=str,
help="the dataset name")
parser.add_argument("--q1", default="ori", type=str,choices=["ori","complex"],
help="q1 is used for base prompt. ori for standard prompt and CoT; compelx for Complex CoT")
parser.add_argument("--q2", default="ori", type=str,choices=["ori","complex"],
help="q2 is used for progressive-hint prompt. ori for standard prompt and CoT; compelx for Complex CoT")
parser.add_argument("--sample", default=1, type=int,
help="sample path number")
parser.add_argument("--sleep", default=1, type=int,
help="sleep time after error.")
args = parser.parse_args()
def make_print_to_file(file_name='./', path="./"):
'''
path, it is a path for save your log about fuction print
example:
use make_print_to_file() and the all the information of funtion print , will be write in to a log file
:return:
'''
import os
import sys
import time
import datetime
import pytz
class Logger(object):
def __init__(self, filename, path="./"):
self.terminal = sys.stdout
self.log = open(filename, "w", encoding='utf8')
def write(self, message):
# self.terminal.write(message)
if message != "\n" and message != "\r":
message = str(datetime.datetime.now(pytz.timezone('Asia/Shanghai'))) + " " + message
self.terminal.write(message)
self.log.write(message)
self.log.flush()
def flush(self):
pass
# fileName = time.strftime(file_name+'%Y-%m-%d %H:%M:%S',time.localtime(time.time()))
sys.stdout = Logger(file_name, path=path)
print(args)
dataset_path = {"addsub": "AddSub/AddSub.json", "aqua": "AQuA/AQuA.json", "gsm8k": "gsm8k/gsm8k.jsonl",
"multiarith": "MultiArith/MultiArith.json", "singleeq": "SingleEq/SingleEq.json",
"svamp": "SVAMP/SVAMP.json", "digit5": "digit5/digit5.pkl", "digit3": "digit3/digit3.pkl",
"digit4": "digit4/digit4.pkl", "digit6": "digit6/digit6.pkl", "digit7": "digit7/digit7.pkl",
"algebra": "math/algebra",
"counting_and_probability": "math/counting_and_probability", "geometry": "math/geometry",
"intermediate_algebra": "math/intermediate_algebra", "number_theory": "math/number_theory",
"prealgebra": "math/prealgebra", "precalculus": "math/precalculus", }
args.dataset_path = "dataset/{}".format(dataset_path[args.dataset])
# load prompts
file = args.prompt_dir
assert file.endswith(".txt")
prompt_name = os.path.basename(file)[:-4]
print(file, prompt_name)
with open(file, "r", encoding='utf-8') as f:
prompt = f.read().strip()
if args.hint != "None":
with open(args.hint, "r", encoding='utf-8') as f:
prompt_hint = f.read().strip()
questions, answers = data_reader(args)
qa_pairs = [(questions[idx], answers[idx]) for idx in range(len(questions))]
print("loading dataset complete. altogether", len(qa_pairs), "questions")
if args.temp2 < 0:
args.temp2 = args.temp
# scale down. -1 if not.
NUM_TEST = args.num_test
if NUM_TEST == -1:
qa_pairs_test = qa_pairs
else:
if args.test_ind is None:
np.random.seed(args.seed)
rand_indices = np.random.choice(len(qa_pairs), NUM_TEST, replace=False)
qa_pairs_test = [qa_pairs[i] for i in rand_indices]
else:
with open(args.test_ind, "r") as f:
test_ind = json.load(f)
assert len(test_ind) == NUM_TEST
qa_pairs_test = [qa_pairs[i] for i in test_ind]
print("testing on", len(qa_pairs_test), "samples")
#Store PHP Answer
file_name = "results/{}/Sample-{}_T-{}_T-{}/Hint-{}{}-{}.eng{}.sample{}.seed{}.temp{}.{}.jsonl".format(args.dataset,
args.sample,
args.temp,
args.temp2,
os.path.basename(
args.hint)[
:-4],
args.hint_length,
prompt_name,
args.eng,
NUM_TEST,
args.seed,
args.temp,
args.suffix)
if not os.path.exists(os.path.dirname(file_name)):
os.makedirs(os.path.dirname(file_name))
writer = jsonlines.open(file_name, mode='w')
# Store non-PHP Answer
file_name_none = "results/{}/Sample-{}_T-{}_T-{}/None{}-{}.eng{}.sample{}.seed{}.temp{}.{}.jsonl".format(
args.dataset, args.sample, args.temp, args.temp2, args.hint_length,
prompt_name, args.eng, NUM_TEST, args.seed, args.temp, args.suffix)
writer_none = jsonlines.open(file_name_none, mode='w')
#make log file
make_print_to_file(
"results/{}/Sample-{}_T-{}_T-{}/{}{}-{}.eng{}.sample{}.seed{}.temp{}.{}.txt".format(args.dataset, args.sample,
args.temp, args.temp2,
os.path.basename(args.hint)[
:-4], args.hint_length,
prompt_name, args.eng,
NUM_TEST, args.seed,
args.temp, args.suffix))
#Print Log File Name
print("results/{}/Sample-{}_T-{}_T-{}/{}{}-{}.eng{}.sample{}.seed{}.temp{}.{}.txt".format(args.dataset, args.sample,
args.temp, args.temp2,
os.path.basename(
args.hint)[:-4],
args.hint_length,
prompt_name, args.eng,
NUM_TEST, args.seed,
args.temp, args.suffix))
#print Dataset length
print("loading dataset complete. altogether", len(qa_pairs), "questions")
print("testing on", len(qa_pairs_test), "samples")
print(args)
count = 0
correct = 0.0
correct_none = 0.0
statics_interact = []
for (question, answer) in qa_pairs_test:
count += 1 # how many QA until now
print()
print()
print("currently", prompt_name, "#", count)
result = dict()
result['question'] = question
result['answer'] = answer
result = dict()
result['question'] = question
result['answer'] = answer
result_none = dict()
result_none['question'] = question
result_none['answer'] = answer
max_tokens = args.max_tokens
count_this = 0
answer_previous_number_array = []
answer_previous_number_array2=[]
while True:
# time.sleep(1)
print("***Step: {}".format(count_this))
print("***{} (Hint: The answer is near to {}).".format(question, ', '.join(
('%s' % id for id in answer_previous_number_array))))
if count_this == 0: #for the base interaction
try:
#try to get answer
answer_first, answer_this = get_answer_from_gpt_sample(prompt, question,
eng=args.eng, max_tokens=max_tokens,
temperature=args.temp,
question_string=args.q1, args=args)
result_none['ans_' + prompt_name] = answer_first
print("***Len {}".format(len(answer_this)))
print("***" + answer_first)
# clean answer.
# answer_this_number_check: check answer is correct or not.
#answer_this_hint: used for answer hint
answer_this_number_check, answer_this_hint = answer_clean_all(args, answer_this)
answer_previous_number = answer_this_hint
answer_previous_number_array.append(answer_this_number_check)
answer_previous_number_array2.append(answer_previous_number)#used for hint
count_this = count_this + 1#interaction number update
if answer_this_number_check == answer:
correct_none += 1
result_none['ans_correct_ratio'] = correct_none / count
print("***Answer:" + str(answer_this_number_check) + " " +str(answer_this_hint) + " " + str(answer) + " " + str(
correct_none / count))
except Exception as e:
print(repr(e))
traceback.print_exc()
time.sleep(args.sleep)
else:
# print(question)
try:
question_new = "{} (Hint: The answer is near to {}).".format(question, ', '.join(
('%s' % id for id in answer_previous_number_array2)))
print("***{}".format(question_new))
answer_first, answer_this = get_answer_from_gpt_sample(prompt_hint, question_new,
eng=args.eng, max_tokens=max_tokens,
temperature=args.temp2,
question_string=args.q2, args=args)
print("***Len {}".format(len(answer_this)))
print("***" + answer_first)
# clean answer.
# answer_this_number_check: check answer is correct or not.
#answer_this_hint: used for answer hint
answer_this_number_check, answer_this_hint = answer_clean_all(args, answer_this)
print("***Answer:" + str(answer_this_number_check) + " " +str(answer_this_hint) + " " + str(answer))
count_this += 1
answer_previous_number_array.append(answer_this_number_check)
answer_previous_number_array2.append(answer_this_hint)
if len(list(set(answer_previous_number_array[-min(len(answer_previous_number_array),
args.hint_length):]))) == 1 and count_this>=args.hint_length:
break
answer_previous_number = answer_this_hint
except Exception as e:
print(repr(e))
traceback.print_exc()
time.sleep(args.sleep)
result['ans_' + prompt_name] = answer_this
if answer_this_number_check == answer:
correct += 1
result['ans_correct_ratio'] = correct / count
print("***Answer:" + str(answer_this_number_check) + " " +str(answer_this_hint) + " " + str(answer) + " " + str(correct / count))
writer.write(result)
writer_none.write(result_none)
statics_interact.append(count_this)
# the last element is the prompt
writer.write(prompt)
writer.write(prompt_hint)
writer.close()
writer_none.write(prompt)
writer_none.close()
statics_interact = np.array(statics_interact)
print("Interact: Mean {} & Std {}".format(statics_interact.mean(), statics_interact.std()))
if __name__ == '__main__':
main()
| [
"PLACEHOLDER\n\nQ: PLACEHOLDER\nA:",
"PLACEHOLDER\n\nQuestion: PLACEHOLDER\nA:",
"[]",
"Follow the given examples and answer the question."
] |
2024-01-10 | rick-love/lc-playground | news_parser.py | import datetime
from config import get_OpenAI, get_NewsAPIKey
from openai import OpenAI
from newsapi import NewsApiClient
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
# Import Pydantic
from langchain.output_parsers import PydanticOutputParser
from pydantic import BaseModel, Field, field_validator, validator
from typing import List
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
# Set the API key for NewsAPI
try:
newsapi = NewsApiClient(api_key=get_NewsAPIKey())
except Exception as e:
raise Exception(f"Error setting API key for NewsAPI: {e}")
# LLMS
llm_model = "gpt-3.5-turbo"
chat = ChatOpenAI(temperature=0, model=llm_model)
# Get Dates
today = datetime.date.today()
yesterday = today - datetime.timedelta(days=1)
# Get News from NewsAPI
sources = newsapi.get_sources(country='de', language='de') #'wired-de', 'techcrunch-de', 't3n', 'spiegel-online', 'reuters', 'gruenderszene', 'focus', 'der-tagesspiegel', 'der-standard', 'der-spiegel', 'die-zeit', 'google-news-de', 'handelsblatt', 'heise', 'n-tv', 'techcrunch', 'the-verge', 'wired'
all_articles = newsapi.get_everything(sources='bbc-news', page=1, from_param=yesterday, to=today)#, language='de', sort_by='relevancy')
# print(sources)
print(all_articles)
# top_headlines = newsapi.get_top_headlines(country='de', category='science', language='de')
# first_article = top_headlines['articles'][0]
# Create Data class
# class Article(BaseModel):
# source: object = Field(description="contains an 'id' and 'name' of where the news is from")
# author: str = Field(description="author of the news article")
# title: str = Field(description="title of the news article")
# description: str = Field(description="description of the news article")
# url: str = Field(description="url of the news article")
# publishedAt: str = Field(description="date and time the news article was published")
# content: str = Field(description="content of the news article")
# # Validation
# @field_validator('content')
# def has_content(cls, v):
# if v != None:
# raise ValueError("Content must exist")
# return v
# # Set up the parser and validation for the output
# pydantic_parser = PydanticOutputParser(pydantic_object=Article)
# format_instructions = pydantic_parser.get_format_instructions()
# # Create the prompt
# news_template_revised = """
# From the following news article, please extract the following information:
# news: {first_article}
# {format_instructions}
# """
# print(first_article)
# print(top_headlines.keys())
# print(top_headlines['articles'][0].keys())
# prompt = ChatPromptTemplate.from_template(template=news_template_revised)
# news_articles = prompt.format_messages(news=top_headlines, format_instructions=format_instructions)
# # Get the response
# response = chat(news_articles)
# print(response.content)
| [] |
2024-01-10 | rick-love/lc-playground | chains.py | from config import get_OpenAI
from langchain.llms import OpenAI
from langchain.chat_models import ChatOpenAI
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain, SequentialChain
import streamlit as st
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
# LLMs
llm_model = "gpt-3.5-turbo-1106"
chat = ChatOpenAI(temperature=0.6, model=llm_model)
open_ai = OpenAI(temperature = 0.0)
# Chains
prompt = PromptTemplate(
input_variables=["language"],
template="How do you say good afternoon in {language}?",
)
chain = LLMChain(llm=open_ai, prompt=prompt)
st.title("Chain:")
st.text(chain.prompt.template.format(language="Portugese"))
st.write(chain.run(language="Portugese"))
| [
"How do you say good afternoon in {language}?",
"language"
] |
2024-01-10 | rick-love/lc-playground | day4_parsers.py | from OpenAI_Training.config import get_OpenAI
from openai import OpenAI
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
llm_model = "gpt-3.5-turbo"
chat = ChatOpenAI(temperature=0, model=llm_model)
email_response = """
We have an issue with the import of the following customer feed file. There are 5 other customers with the same issue.
Import ID 2289581
Import URL https://transport.productsup.io/bee95abe02f1f5a18c63/channel/123456/example.xml
User ID 321
Start time 2023-11-28T06:00:13Z
End time 2023-11-28T06:00:13Z
Error internal error, second error, third error
Internal Error write to spool file: write /feed-downloads/feed-ebayk-2289581: no space left on device
"""
email_template = """
From the following email, please extract the following information:
User_Id: what is the user id?
Import_ID: what is the import id?
start_time: what is the start time?
end_time: what is the end time?
errors: what are the errors? If there are multiple errors, please list them all in square brackets as an array.
Format the response as JSON with the following keys:
user_id
import_id
start_time
end_time
errors
email = {email}
"""
####################
email_template_revised = """
From the following email, please extract the following information:
User_Id: what is the user id?
Import_ID: what is the import id?
start_time: what is the start time?
end_time: what is the end time?
errors: what are the errors? If there are multiple errors, please list them all in square brackets as an array.
Format the response as JSON with the following keys:
user_id
import_id
start_time
end_time
errors
email = {email}
"""
# {first_format_instructions}
prompt_template = ChatPromptTemplate.from_template(email_template)
#####################
# Langchain Parsers
from langchain.output_parsers import ResponseSchema
from langchain.output_parsers import StructuredOutputParser
end_time_schema = ResponseSchema(name="end_time", description="The end time of the import")
start_time_schema = ResponseSchema(name="start_time", description="The start time of the import")
import_id_schema = ResponseSchema(name="import_id", description="The import id of the import")
user_id_schema = ResponseSchema(name="user_id", description="The user id of the import")
errors_schema = ResponseSchema(name="errors", description="The errors of the import")
response_schema = [end_time_schema, start_time_schema, import_id_schema, user_id_schema, errors_schema]
# Create a parser
output_parser = StructuredOutputParser.from_response_schemas(response_schema)
format_instructions = output_parser.get_format_instructions()
updated_prompt_template = ChatPromptTemplate.from_template(template=email_template_revised)
messages = prompt_template.format_messages(email=email_response, format_instructions=format_instructions)
response = chat(messages)
output_dict = output_parser.parse(response.content)
print(type(output_dict))
print(f"User Ids: {output_dict['user_id']}")
print(f"Erorrs: {output_dict['errors']}")
# print(type(reponse.content))
# print(reponse.content) | [
"\nFrom the following email, please extract the following information:\nUser_Id: what is the user id?\n\nImport_ID: what is the import id?\nstart_time: what is the start time?\nend_time: what is the end time?\nerrors: what are the errors? If there are multiple errors, please list them all in square brackets as an array.\n\nFormat the response as JSON with the following keys:\n user_id\n import_id\n start_time\n end_time\n errors\n \nemail = {email}\n\n"
] |
2024-01-10 | rick-love/lc-playground | chains_story.py | from config import get_OpenAI
from langchain.llms import OpenAI
from langchain.chat_models import ChatOpenAI
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain, SequentialChain
import streamlit as st
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
# LLMs
llm_model = "gpt-3.5-turbo-1106"
open_ai = OpenAI(temperature = 0.0)
template = """
As a childrens book author, write a simple and short (90 words) story lullaby based on the location
{location}
and the main character
{name}
STORY:
"""
prompt = PromptTemplate(
input_variables=["location", "name"],
template=template,
)
chain_story = LLMChain(llm=open_ai, prompt=prompt, output_key="story", verbose=True)
story = chain_story({"location": "the forest", "name": "Bobby"})
# SequentialChain
translation_template = """
Translate the {story} to {language}.
Make sure the translation is simple and fun to read for children.
TRANSLATION:
"""
prompt_translation = PromptTemplate(
input_variables=["story", "language"],
template=translation_template,
)
chain_translation = LLMChain(llm=open_ai, prompt=prompt_translation, output_key="translated")
overall_chain = SequentialChain(
chains=[chain_story, chain_translation],
input_variables=["location", "name", "language"],
output_variables=["story", "translated"])
response = overall_chain({"location": "the forest", "name": "Bobby", "language": "German"})
st.title("Story Chain:")
# st.write(story['text'])
st.write("## Story Chain with SequentialChain")
st.write(f"### Story: {response['story']} \n\n")
st.write(f"### Translation:\n\n {response['translated']} \n\n")
| [
"location",
"name",
"\nAs a childrens book author, write a simple and short (90 words) story lullaby based on the location\n{location}\nand the main character\n{name}\n\nSTORY:\n",
"\nTranslate the {story} to {language}.\n\nMake sure the translation is simple and fun to read for children.\n\nTRANSLATION:\n",
"language"
] |
2024-01-10 | rick-love/lc-playground | day3.py | from OpenAI_Training.config import get_api_key
from openai import OpenAI
from langchain.prompts import FewShotPromptTemplate,PromptTemplate
from langchain.llms import OpenAI
from langchain.chat_models import ChatOpenAI
from langchain.embeddings import OpenAIEmbeddings
from langchain.schema import HumanMessage, SystemMessage, AIMessage
from langchain.output_parsers import StructuredOutputParser, ResponseSchema
from langchain.document_loaders import HNLoader
from langchain.document_loaders import UnstructuredURLLoader
# Set the API key for OpenAI
try:
OpenAI.api_key = get_api_key()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
# LLMs
llm = OpenAI(temperature=0.9, model_name="text-davinci-003")
chat = ChatOpenAI(temperature=.7)
############
# Document Loaders
loader = HNLoader("https://news.ycombinator.com/item?id=34422627")
############
# Show to the screen
# App Framework
import streamlit as st
st.title('Day 3:')
st.write()
############
# Output Parsers
# How you would like your response structured. This is basically a fancy prompt template
response_schemas = [
ResponseSchema(name="bad_string", description="This a poorly formatted user input string"),
ResponseSchema(name="good_string", description="This is your response, a reformatted response")
]
# How to parse the output
output_parser = StructuredOutputParser.from_response_schemas(response_schemas)
format_instructions = output_parser.get_format_instructions()
output_parse_template = """
You will be given a poorly formatted string from a user.
Reformat it and make sure all the words are spelled correctly
{format_instructions}
% USER INPUT:
{user_input}
YOUR RESPONSE:
"""
output_parse_prompt = PromptTemplate(
input_variables=["user_input"],
partial_variables={"format_instructions": format_instructions},
template=output_parse_template
)
promptValue = output_parse_prompt.format(user_input="whenn is this going end")
llm_output_parser = llm(promptValue)
parsed = output_parser.parse(llm_output_parser)
# {
# "bad_string": "whenn is this going end",
# "good_string": "When is this going to end?"
# }
#################
# Example Selectors
from langchain.prompts.example_selector import SemanticSimilarityExampleSelector
from langchain.vectorstores import Chroma
example_prompt = PromptTemplate(
input_variables=["input", "output"],
template="Example Input: {input}\nExample Output: {output}",
)
examples = [
{"input": "pirate", "output": "ship"},
{"input": "pilot", "output": "plane"},
{"input": "driver", "output": "car"},
{"input": "tree", "output": "ground"},
{"input": "bird", "output": "nest"},
]
example_selector = SemanticSimilarityExampleSelector.from_examples(
examples, OpenAIEmbeddings(), Chroma, k=2
)
simlar_prompt = FewShotPromptTemplate(
example_selector=example_selector,
# Your prompt
example_prompt=example_prompt,
prefix="Give the location an item is usually found",
suffix="Input: {noun}\nOutput",
input_variables=["noun"]
)
my_noun = "plant"
# print(simlar_prompt.format(noun=my_noun))
#################
# Text Embeddings
embeddings = OpenAIEmbeddings()
text = "Learning AI is painful to start"
text_embedding = embeddings.embed_query(text)
# print(f"Embeddings Length: {len(text_embedding)}")
# print(f"A sample {text_embedding[2]}")
################
# Prompt Template
template = """
I really want to travel to {location}. What should I do there?
Respond with one short answer.
"""
prompt = PromptTemplate(
input_variables=["location"],
template=template
)
final_prompt = prompt.format(location="Lisbon")
# print(f"Final Prompt: {final_prompt}")
# print(f"LLM Output: {llm(final_prompt)}")
# Simple Chat
llm_response = llm('What day is after Tuesday')
response = chat(
[
SystemMessage(content="You are a nice AI bot that helps a user figure out what to eat in one short sentence"),
HumanMessage(content="I like chicken, what should I eat?")
]
)
| [
"\nI really want to travel to {location}. What should I do there?\n\nRespond with one short answer.\n\n",
"location",
"Input: {noun}\nOutput",
"Lisbon",
"format_instructions",
"You are a nice AI bot that helps a user figure out what to eat in one short sentence",
"Give the location an item is usually found",
"input",
"whenn is this going end",
"user_input",
"noun",
"I like chicken, what should I eat?",
"\nYou will be given a poorly formatted string from a user.\nReformat it and make sure all the words are spelled correctly\n\n{format_instructions}\n\n% USER INPUT:\n{user_input}\n\nYOUR RESPONSE:\n\n",
"Example Input: {input}\nExample Output: {output}"
] |
2024-01-10 | rick-love/lc-playground | memory.py | from config import get_OpenAI
from openai import OpenAI
from langchain.llms import OpenAI
from langchain.chat_models import ChatOpenAI
from langchain.chains import ConversationChain
from langchain.memory import ConversationBufferMemory
import streamlit as st
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
# LLMs
llm_model = "gpt-3.5-turbo"
llm = ChatOpenAI(temperature=0.6, model=llm_model) # temperature=0.7 is default
st.title('Memory Test:')
st.write(llm.predict("Hello, my name is John. What is your name?"))
st.write(llm.predict("Great, what is my name?")) # should be John - No Access to Memory at this point
#Memory
memory = ConversationBufferMemory()
conversation = ConversationChain(llm=llm, memory=memory, verbose=True)
st.title('Conversation Test:')
st.write(conversation.predict(input="Hello, my name is John. What is your name?"))
st.write(conversation.predict(input="Great, what is my name?")) # should be John - No Access to Memory at this point
st.write(memory.load_memory_variables({})) # {} should be empty - Access to Memory at this point
| [] |
2024-01-10 | rick-love/lc-playground | doesnt_work_speech2text.py | from pathlib import Path
from OpenAI_Training.config import get_api_key
from openai import OpenAI
from langchain.llms import OpenAI
from langchain.chat_models import ChatOpenAI
import streamlit as st
# Set the API key for OpenAI
try:
OpenAI.api_key = get_api_key()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
# LLMs
client = OpenAI()
response = client.audio.speech.create(
model="tts-1",
voice="alloy",
input="Hello world! This is a streaming test.",
)
response.stream_to_file("output.mp3")
############
# Show to the screen
# App Framework
st.title('Boiler Plate:')
st.audio("speech.mp3") | [] |
2024-01-10 | rick-love/lc-playground | getWeather.py | # This file is used to get the weather for a given location
from config import get_OpenAI, get_OpenWeatherAPIKey
from langchain.llms import OpenAI
from langchain.agents import AgentType, initialize_agent, load_tools
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
# Set the API key for OpenWeatherMap
try:
openWeather_api_key = get_OpenWeatherAPIKey()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
llm = OpenAI(temperature=0)
tools = load_tools(["openweathermap-api"], llm)
agent_chain = initialize_agent(tools=tools, llm=llm, agent_type=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True)
agent_chain.run("What is the weather in New York?") | [] |
2024-01-10 | rick-love/lc-playground | pydantic_parser.py | from config import get_OpenAI
from openai import OpenAI
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
#import Pydantic
from langchain.output_parsers import PydanticOutputParser
from pydantic import BaseModel, Field, field_validator, validator
from typing import List
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
llm_model = "gpt-3.5-turbo"
chat = ChatOpenAI(temperature=0, model=llm_model)
email_response = """
We have an issue with the import of the following customer feed file. There are 5 other customers with the same issue.
Import ID 2289581
Import URL https://transport.productsup.io/bee95abe02f1f5a18c63/channel/123456/example.xml
User ID 321
Start time 2023-11-28T06:00:13Z
End time 2023-11-28T06:00:13Z
Error internal error, second error, third error
Internal Error write to spool file: write /feed-downloads/feed-ebayk-2289581: no space left on device
"""
email_template = """
From the following email, please extract the following information:
User_Id: what is the user id?
Import_ID: what is the import id?
start_time: what is the start time?
end_time: what is the end time?
errors: what are the errors? If there are multiple errors, please list them all in square brackets as an array.
Format the response as JSON with the following keys:
user_id
import_id
start_time
end_time
errors
email = {email}
"""
####################
email_template_revised = """
From the following email, please extract the following information:
User_Id: what is the user id?
Import_ID: what is the import id?
start_time: what is the start time?
end_time: what is the end time?
errors: what are the errors? If there are multiple errors, please list them all in square brackets as an array.
email: {email}
{format_instructions}
"""
# Define Class
class ErrorInfo(BaseModel):
num_incidents: int = Field(description="this is an integar or the number of errors")
user_id : str = Field(description="This is the customers user id")
import_id : str = Field(description="This is the Import Id")
# Custom validator
@field_validator("num_incidents")
@classmethod
def num_incidents_must_be_positive(cls, v):
if v < 0:
raise ValueError("number of incidents must be positive")
return v
# set up the parser
pydantic_parser = PydanticOutputParser(pydantic_object=ErrorInfo)
format_instructions = pydantic_parser.get_format_instructions()
update_template = ChatPromptTemplate.from_template(template=email_template_revised)
messages = update_template.format_messages(email=email_response, format_instructions=format_instructions)
format_response = chat(messages)
print(type(format_response.content))
error_object = pydantic_parser.parse(format_response.content)
print(error_object)
print(type(error_object)) | [
"\nFrom the following email, please extract the following information:\nUser_Id: what is the user id?\n\nImport_ID: what is the import id?\nstart_time: what is the start time?\nend_time: what is the end time?\nerrors: what are the errors? If there are multiple errors, please list them all in square brackets as an array.\n\nemail: {email}\n{format_instructions}\n\n",
"\nFrom the following email, please extract the following information:\nUser_Id: what is the user id?\n\nImport_ID: what is the import id?\nstart_time: what is the start time?\nend_time: what is the end time?\nerrors: what are the errors? If there are multiple errors, please list them all in square brackets as an array.\n\nFormat the response as JSON with the following keys:\n user_id\n import_id\n start_time\n end_time\n errors\n \nemail = {email}\n\n"
] |
2024-01-10 | rick-love/lc-playground | getNews.py | from config import get_NewsAPIKey, get_OpenAI
from newsapi import NewsApiClient
from openai import OpenAI
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
# Set the API key for NewsAPI
try:
newsapi = NewsApiClient(api_key=get_NewsAPIKey())
except Exception as e:
raise Exception(f"Error setting API key for NewsAPI: {e}")
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
model = OpenAI(temperature=0, model_name="gpt-3.5-turbo-1106")
chat = ChatOpenAI(temperature=0, model="gpt-3.5-turbo-1106")
# Get the top headlines for a given query
sources = newsapi.get_sources()
# top_headlines = newsapi.get_top_headlines(q='ukraine', country='us', category='business', language='en')
top_headlines = newsapi.get_top_headlines(country='de', language='de')
news_response = """
source: {sources}
headlines: {top_headlines}
"""
# prompt_template = ChatPromptTemplate.from_template(prompt)
# headline_list = prompt_template.format_messages(top_headlines=top_headlines, prompt=prompt)
# response = headline_list
# print(type(response))
# print(type(top_headlines)) # dict
# print(sources)
# print(top_headlines)
| [] |
2024-01-10 | rick-love/lc-playground | story_generator.py | from config import get_OpenAI
from langchain.llms import OpenAI
from langchain.chat_models import ChatOpenAI
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain, SequentialChain
import streamlit as st
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
# LLMs
llm_model = "gpt-3.5-turbo-1106"
open_ai = OpenAI(temperature = 0.0)
def generate_story(location, name, language):
template = """
As a childrens book author, write a simple and short (90 words) story lullaby based on the location
{location}
and the main character
{name}
STORY:
"""
prompt = PromptTemplate(
input_variables=["location", "name"],
template=template,
)
chain_story = LLMChain(llm=open_ai, prompt=prompt, output_key="story", verbose=True)
# SequentialChain
translation_template = """
Translate the {story} to {language}.
Make sure the translation is simple and fun to read for children.
TRANSLATION:
"""
prompt_translation = PromptTemplate(
input_variables=["story", "language"],
template=translation_template,
)
chain_translation = LLMChain(llm=open_ai, prompt=prompt_translation, output_key="translated")
overall_chain = SequentialChain(
chains=[chain_story, chain_translation],
input_variables=["location", "name", "language"],
output_variables=["story", "translated"])
response = overall_chain({"location": location, "name": name, "language": language })
return response
def main():
st.set_page_config(page_title="Story Generator", page_icon="📚", layout="centered")
st.title("AI 📖 Story Generator")
st.header("Get started...")
location_input = st.text_input(label="Enter a location")
character_input = st.text_input(label="Enter a name")
language_input = st.text_input(label="Enter a language")
submit_button = st.button("Generate Story")
if location_input and character_input and language_input:
if submit_button:
with st.spinner("Generating story..."):
response = generate_story(location=location_input, name=character_input, language=language_input)
with st.expander("English Version"):
st.write(response['story'])
with st.expander(f"{language_input} Version"):
st.write(response['translated'])
st.success("Story generated!")
pass
# Invoke Main function
if __name__ == "__main__":
main() | [
"location",
"name",
"\n Translate the {story} to {language}.\n\n Make sure the translation is simple and fun to read for children.\n\n TRANSLATION:\n ",
"\n As a childrens book author, write a simple and short (90 words) story lullaby based on the location\n {location}\n and the main character\n {name}\n\n STORY:\n ",
"language"
] |
2024-01-10 | rick-love/lc-playground | blogGenerator.py | from OpenAI_Training.config import get_OpenAI
from openai import OpenAI
from langchain.llms import OpenAI
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain, SequentialChain
from langchain.memory import ConversationBufferMemory
from langchain.utilities import WikipediaAPIWrapper
from langchain.chat_models import ChatOpenAI
from langchain.globals import get_verbose
current_verbose = get_verbose()
import streamlit as st
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
# LLMs
llm = OpenAI(temperature=0.9)
chat_model = ChatOpenAI()
#Memory
blog_title_memory = ConversationBufferMemory(input_key='topic', memory_key='chat_history')
blog_subject_memory = ConversationBufferMemory(input_key='title', memory_key='chat_history')
# Prompt Templates
prompt = st.text_input('Enter your topic:')
blog_title_template = PromptTemplate(
input_variables=['topic'],
template='Write a Blog title about {topic}'
)
blog_subject_templte = PromptTemplate(
input_variables=['title', 'wikipedia_research'],
template='Write a Blog article based on this title: {title} while also leveraging this wikipedia research: {wikipedia_research}. The article should be less 500 words long.'
)
title_chain= LLMChain(llm=llm, prompt=blog_title_template, output_key='title', memory=blog_title_memory)
subject_chain= LLMChain(llm=llm, prompt=blog_subject_templte, output_key='title', memory=blog_subject_memory)
wiki = WikipediaAPIWrapper()
############
# Show to the screen
# App Framework
st.title('Blog Creator')
if prompt:
title = title_chain.run(prompt)
wiki_research = wiki.run(prompt)
subject = subject_chain.run(title=title, wikipedia_research=wiki_research)
st.write(title)
st.write(subject)
with st.expander('Title History'):
st.info(blog_title_memory.buffer)
with st.expander('Script History'):
st.info(blog_subject_memory.buffer)
with st.expander('Wikipedia Research'):
st.info(wiki_research)
| [
"Write a Blog title about {topic}",
"Enter your topic:",
"Write a Blog article based on this title: {title} while also leveraging this wikipedia research: {wikipedia_research}. The article should be less 500 words long."
] |
2024-01-10 | rick-love/lc-playground | languageConverter.py | from langchain.llms import OpenAI
import streamlit as st
from config import get_OpenAI
from langchain.prompts import PromptTemplate
template = """
Below is a text message that maybe poorly written.
Your goal is to:
- Properly format the text
- Convert the text to the desired tone
- Convert the text to the desired language
Here is an example of different tones:
- Formal: "I am writing to inform you that the product you ordered has been shipped."
- Informal: "Hey! Just wanted to let you know that your order has been shipped."
- Casual: "Yo! Your order has shipped."
Here are some examples of different languages:
- English: "I am writing to inform you that the product you ordered has been shipped."
- German: "Ich schreibe Ihnen, um Sie darüber zu informieren, dass das von Ihnen bestellte Produkt versandt wurde."
- Spanish: "Le escribo para informarle que el producto que ha pedido ha sido enviado."
Below is the text, tone and language:
TONE: {tone}
LANGUAGE: {language}
TEXT: {text}
YOUR RESPONSE:
"""
prompt = PromptTemplate(
input_variables=['tone', 'language', 'text'],
template=template,
)
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
def load_LLM():
llm = OpenAI(temperature=0, max_tokens=100)
return llm
llm = load_LLM()
st.set_page_config(page_title="Langchain Playground", page_icon="🧊", layout="wide")
st.header("Langchain Playground")
col1, col2, col3 = st.columns(3)
with col1:
st.write('Creating a language conversion app which will be the base for the Chat Agent.')
with col2:
st.image('day_1.png')
st.markdown('---')
st.markdown('## Enter your text here:')
col1, col2 = st.columns(2)
with col1:
option_tone = st.selectbox('Tone', ('Formal', 'Informal', 'Casual'))
with col2:
option_lang = st.selectbox('Language', ('English', 'German', 'Spanish'))
def get_text():
input_text = st.text_area(label='text', label_visibility='hidden', placeholder='Enter text here', key='text_area')
return input_text
text_input = get_text()
st.markdown('Converted text:')
if text_input:
prompt_with_text = prompt.format(
tone=option_tone,
language=option_lang,
text=text_input
)
formatted_text = llm(prompt_with_text)
st.write(formatted_text) | [
"Yo! Your order has shipped.",
"Ich schreibe Ihnen, um Sie darüber zu informieren, dass das von Ihnen bestellte Produkt versandt wurde.",
"tone",
"Hey! Just wanted to let you know that your order has been shipped.",
"Le escribo para informarle que el producto que ha pedido ha sido enviado.",
"\nBelow is a text message that maybe poorly written.\nYour goal is to:\n- Properly format the text\n- Convert the text to the desired tone\n- Convert the text to the desired language\n\nHere is an example of different tones:\n- Formal: \"I am writing to inform you that the product you ordered has been shipped.\"\n- Informal: \"Hey! Just wanted to let you know that your order has been shipped.\"\n- Casual: \"Yo! Your order has shipped.\"\n\nHere are some examples of different languages:\n- English: \"I am writing to inform you that the product you ordered has been shipped.\"\n- German: \"Ich schreibe Ihnen, um Sie darüber zu informieren, dass das von Ihnen bestellte Produkt versandt wurde.\"\n- Spanish: \"Le escribo para informarle que el producto que ha pedido ha sido enviado.\"\n\nBelow is the text, tone and language:\nTONE: {tone}\nLANGUAGE: {language}\nTEXT: {text}\n\nYOUR RESPONSE:\n",
"I am writing to inform you that the product you ordered has been shipped.",
"language"
] |
2024-01-10 | rick-love/lc-playground | starter.py | from config import get_OpenAI
from openai import OpenAI
from langchain.llms import OpenAI
from langchain.chat_models import ChatOpenAI
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain, SequentialChain
from langchain.memory import ConversationBufferMemory
import streamlit as st
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
# LLMs
llm = OpenAI(temperature=0, model_name="gpt-3.5-turbo-1106")
chat_model = ChatOpenAI(temperature=0) # temperature=0.7 is default
############
# Show to the screen
# App Framework
st.title('Boiler Plate:') | [] |
2024-01-10 | rick-love/lc-playground | promptTemplates.py | from OpenAI_Training.config import get_OpenAI, get_PineCone
from openai import OpenAI
from langchain.llms import OpenAI
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
import streamlit as st
# Set the API key for OpenAI
try:
OpenAI.api_key = get_OpenAI()
except Exception as e:
raise Exception(f"Error setting API key for OpenAI: {e}")
# LLMs
# llm = OpenAI(temperature=0.9, model_name="gpt-4-1106-preview")
chat_model = ChatOpenAI(temperature=.7)
#Templates
human_input = "Hello, how are you?"
template_string = """
Translates from English to German in a nice tone.
{human_input}
"""
prompt_template = ChatPromptTemplate.from_template(template_string)
translation = prompt_template.format_messages(human_input=human_input)
response = chat_model(translation)
print(response)
############
# Show to the screen
# App Framework
st.title('Boiler Plate:')
st.write(response) | [
"\n\nTranslates from English to German in a nice tone.\n{human_input}\n\n"
] |
2024-01-10 | BDSI-Utwente/steers | ingest~deprecated~04-topics_openai.py | from dotenv import load_dotenv
load_dotenv(".env")
from database import *
import openai
from openai.error import RateLimitError
import os
import random
import backoff
from peewee import DataError
openai.api_key = os.getenv("OPENAI_APIKEY")
# prepare topic getter with exponential backoff baked in
@backoff.on_exception(backoff.expo, RateLimitError)
def get_topics(essay: Essay):
summary = essay.summary_en
if len(summary) > 10_000:
print(f"[WARNING] Summary truncated to 10k characters")
summary = essay.summary_en[:10000]
result = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are a topic extraction engine. When you get a message, you will reply with a comma-separated list of up to 8 topics and concepts that are most relevant to that message."},
{"role": "user", "content": summary }
]
)
return [c.lower().strip(" ,.!?:;") for c in result["choices"][0]["message"]["content"].split(",")]
for essay_index, essay in enumerate(Essay.select().iterator()):
if essay.language == "xx" or essay.summary_en is None or len(essay.summary_en) < 50:
continue
# skip if already gotten topics with this method
if EssayTopic.get_or_none(EssayTopic.essay == essay, EssayTopic.method == "openai gpt-3.5-turbo"):
continue
# if random.random() > 0.05: # only for a random subset of ~5%
# continue
print(f"[{essay_index + 1}]", essay.title[:120])
labels = get_topics(essay)
attempt = 1
while any(map(lambda label: len(label) > 50, labels)):
if attempt < 5:
print(f"[WARNING] unusually long topic(s), retrying...")
attempt += 1
else:
print(f"[ERROR] unusually long topic(s) after {attempt} retries, giving up!")
for label in labels:
print(f"\t{label}")
labels = get_topics(essay)
for index, label in enumerate(labels):
topic, created = Topic.get_or_create(name=label)
link, _ = EssayTopic.get_or_create(
essay=essay,
topic=topic,
method="openai gpt-3.5-turbo",
)
print(" + " if created else " ", label, sep = "")
| [
"You are a topic extraction engine. When you get a message, you will reply with a comma-separated list of up to 8 topics and concepts that are most relevant to that message."
] |
2024-01-10 | BDSI-Utwente/steers | ingest~deprecated~03-categories_openai.py | from dotenv import load_dotenv
load_dotenv(".env")
from database import *
import openai
from openai.error import RateLimitError
import os
import random
import backoff
from typing import List
from peewee import DataError
openai.api_key = os.getenv("OPENAI_APIKEY")
# prepare category getter with exponential backoff baked in
@backoff.on_exception(backoff.expo, RateLimitError)
def get_categories(essay: Essay) -> List[str]:
summary = essay.summary_en
if len(summary) > 10_000:
print(f"[WARNING] Summary truncated to 10k characters")
summary = essay.summary_en[:10000]
result = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are an academic library classification engine. When you get a message, you will reply with a comma-separated list of academic domains that best fit the thesis described in the message."},
{"role": "user", "content": summary }
]
)
return [c.lower().strip(" ,.!?:;") for c in result["choices"][0]["message"]["content"].split(",")]
for essay_index, essay in enumerate(Essay.select().iterator()):
if essay.language == "xx" or essay.summary_en is None or len(essay.summary_en) < 50:
continue
# skip if already gotten categories with this method
if EssayCategory.get_or_none(EssayCategory.essay == essay, EssayCategory.method == "openai gpt-3.5-turbo"):
continue
# if random.random() > 0.05: # only for a random subset of ~5%
# continue
print(f"[{essay_index + 1}]", essay.title[:120])
categories = get_categories(essay)
for index, label in enumerate(categories):
category, created = Category.get_or_create(name=label)
link, _ = EssayCategory.get_or_create(
essay=essay,
category=category,
method="openai gpt-3.5-turbo",
)
print(" + " if created else " ", label, sep = "")
| [
"You are an academic library classification engine. When you get a message, you will reply with a comma-separated list of academic domains that best fit the thesis described in the message."
] |
2024-01-10 | mikelapierre/chat-with-your-data-solution-accelerator | code~utilities~helpers~LLMHelper.py | import openai
from typing import List
from langchain.chat_models import AzureChatOpenAI
from langchain.embeddings import OpenAIEmbeddings
from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler
from .EnvHelper import EnvHelper
class LLMHelper:
def __init__(self):
env_helper: EnvHelper = EnvHelper()
# Configure OpenAI API
openai.api_type = "azure"
openai.api_version = env_helper.AZURE_OPENAI_API_VERSION
openai.api_base = env_helper.OPENAI_API_BASE
openai.api_key = env_helper.OPENAI_API_KEY
self.llm_model = env_helper.AZURE_OPENAI_MODEL
self.llm_max_tokens = env_helper.AZURE_OPENAI_MAX_TOKENS if env_helper.AZURE_OPENAI_MAX_TOKENS != '' else None
self.embedding_model = env_helper.AZURE_OPENAI_EMBEDDING_MODEL
def get_llm(self):
return AzureChatOpenAI(deployment_name=self.llm_model, temperature=0, max_tokens=self.llm_max_tokens, openai_api_version=openai.api_version)
# TODO: This needs to have a custom callback to stream back to the UI
def get_streaming_llm(self):
return AzureChatOpenAI(streaming=True, callbacks=[StreamingStdOutCallbackHandler], deployment_name=self.llm_model, temperature=0,
max_tokens=self.llm_max_tokens, openai_api_version=openai.api_version)
def get_embedding_model(self):
return OpenAIEmbeddings(deployment=self.embedding_model, chunk_size=1)
def get_chat_completion_with_functions(self, messages: List[dict], functions: List[dict], function_call: str="auto"):
return openai.ChatCompletion.create(
deployment_id=self.llm_model,
messages=messages,
functions=functions,
function_call=function_call,
)
def get_chat_completion(self, messages: List[dict]):
return openai.ChatCompletion.create(
deployment_id=self.llm_model,
messages=messages,
)
| [] |
2024-01-10 | mikelapierre/chat-with-your-data-solution-accelerator | code~utilities~document_chunking~Layout.py | from typing import List
from .DocumentChunkingBase import DocumentChunkingBase
from langchain.text_splitter import MarkdownTextSplitter
from .Strategies import ChunkingSettings
from ..common.SourceDocument import SourceDocument
class LayoutDocumentChunking(DocumentChunkingBase):
def __init__(self) -> None:
pass
def chunk(self, documents: List[SourceDocument], chunking: ChunkingSettings) -> List[SourceDocument]:
full_document_content = "".join(list(map(lambda document: document.content, documents)))
document_url = documents[0].source
splitter = MarkdownTextSplitter.from_tiktoken_encoder(chunk_size=chunking.chunk_size, chunk_overlap=chunking.chunk_overlap)
chunked_content_list = splitter.split_text(full_document_content)
# Create document for each chunk
documents = []
chunk_offset = 0
for idx, chunked_content in enumerate(chunked_content_list):
documents.append(
SourceDocument.from_metadata(
content=chunked_content,
document_url=document_url,
metadata={"offset": chunk_offset},
idx=idx,
)
)
chunk_offset += len(chunked_content)
return documents
| [] |
2024-01-10 | mikelapierre/chat-with-your-data-solution-accelerator | code~utilities~orchestrator~Strategies.py | from enum import Enum
class OrchestrationStrategy(Enum):
OPENAI_FUNCTION = 'openai_function'
LANGCHAIN = 'langchain'
def get_orchestrator(orchestration_strategy: str):
if orchestration_strategy == OrchestrationStrategy.OPENAI_FUNCTION.value:
from .OpenAIFunctions import OpenAIFunctionsOrchestrator
return OpenAIFunctionsOrchestrator()
elif orchestration_strategy == OrchestrationStrategy.LANGCHAIN.value:
from .LangChainAgent import LangChainAgent
return LangChainAgent()
else:
raise Exception(f"Unknown orchestration strategy: {orchestration_strategy}")
| [] |
2024-01-10 | zharry29/curious_code_prompts | datasets~imdb~imdb_old.py | import argparse
import openai
from datasets import load_dataset
import random
random.seed(29)
from promptsource.templates import DatasetTemplates
import time
from sklearn.metrics import accuracy_score
import pickle
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("gpt2")
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', default='text', type=str, help='Either text or code.')
parser.add_argument('--model', default='codex', type=str, help='Either davinci, curie or codex.')
parser.add_argument('--max_prompt', type=int, default=4000, help='Maximum number of tokens in the prompt.')
parser.add_argument('--key', default='harry', type=str, help='The name of the OpenAI API key file.')
args = parser.parse_args()
openai.api_key = open(f'../../_private/{args.key}.key').read()
SELECTED_PROMPT_NAME = "Movie Expressed Sentiment"
template = DatasetTemplates('imdb')[SELECTED_PROMPT_NAME]
dataset = load_dataset("imdb")
def predict():
# Build prompt
def build_text_prompt(inference_input_text):
text_prompt = ""
prev_prompt = ""
example_indices = random.sample(range(len(dataset['train'])), 100)
for example_index in example_indices:
if len(tokenizer(text_prompt + inference_input_text)['input_ids']) > args.max_prompt - 5:
break
example = dataset['train'][example_index]
input_text, output_text = template.apply(example)
prev_prompt = text_prompt
text_prompt += input_text + ' ' + output_text + '.\n\n'
return(prev_prompt + inference_input_text)
def build_code_prompt():
code_prompt = ""
return code_prompt
def run_llm(prompt, model, temperature=0, stop=['\n']):
model_name = {
"davinci": "text-davinci-002",
"curie": "text-curie-001",
"ada": "text-ada-001",
"codex": "code-davinci-002",
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=temperature,
max_tokens=5,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
preds = []
golds = []
print("Total examples: ", len(dataset['test']))
count = 0
#print(len(dataset['test']))
#raise SystemExit
with open("sampled_1000_indices.pkl", "rb") as f:
indices = pickle.load(f)
for index in indices:
example = dataset['test'][index]
#print(example)
#raise SystemExit
count += 1
print(count)
input_text, output_text = template.apply(example)
if args.prompt == "text":
prompt = build_text_prompt(input_text)
elif "code" in args.prompt:
prompt = build_code_prompt(args.prompt, input_text)
#print(prompt)
#print(len(tokenizer(prompt)['input_ids']))
pred_text = run_llm(prompt, args.model)
#print(pred_text)
#raise SystemExit
if "negative" in pred_text:
pred = 0
else:
pred = 1
gold = example['label']
preds.append(pred)
golds.append(gold)
with open(f'pred_{args.model}_{args.prompt}_{args.max_prompt}.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in preds])
with open('gold.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in golds])
def evaluate():
with open(f'pred_{args.model}_{args.prompt}_{args.max_prompt}.txt', 'r') as f:
preds = [x.strip() for x in f.readlines()]
with open('gold.txt', 'r') as f:
golds = [x.strip() for x in f.readlines()]
print("Accuracy", accuracy_score(golds, preds))
return "Accuracy", accuracy_score(golds, preds)
if __name__ == "__main__":
predict()
evaluate() | [
"PLACEHOLDER PLACEHOLDER.\n\n",
"Movie Expressed Sentiment"
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~cnn_dailymail~cnn_dailymail.py | import argparse
import openai
from datasets import load_dataset
import random
random.seed(29)
from promptsource.templates import DatasetTemplates
import time
from transformers import AutoTokenizer
from tqdm import tqdm
from rouge import FilesRouge
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', required=True, type=str, help='Either text or code.')
parser.add_argument('--model', required=True, type=str, help='Either davinci, curie or codex.')
parser.add_argument('--max_prompt', type=int, default=4000, help='Maximum number of tokens in the prompt.')
parser.add_argument('--key', required=True, type=str, help='The name of the OpenAI API key file.')
args = parser.parse_args()
openai.api_key = open(f'../../_private/{args.key}.key').read()
SELECTED_PROMPT_NAME = "2_or_3_sentences"
MAX_RESPONSE_TOKENS = 300
rouge = FilesRouge()
template = DatasetTemplates("cnn_dailymail/3.0.0")[SELECTED_PROMPT_NAME]
dataset = load_dataset("cnn_dailymail", "3.0.0", cache_dir="/nlp/data/huggingface_cache")
tokenizer = AutoTokenizer.from_pretrained("gpt2")
def apply_code_template(example):
with open(args.prompt + '.py') as f:
template = f.read()
highlights = example["highlights"].replace('\n', ' ')
template = template.replace("{article}", example["article"]).replace("{highlights}", highlights)
return template.split("<\split>")
def predict():
# Build prompt
def build_text_prompt(model, input_text):
len_input = len(tokenizer(input_text)['input_ids'])
text_prompt = ""
max_len = args.max_prompt - MAX_RESPONSE_TOKENS - len_input
sampled_indices = []
while True:
index = random.choice(range(len(dataset['train'])))
while index in sampled_indices:
index = random.choice(range(len(dataset['train'])))
sampled_indices.append(index)
example = dataset['train'][index]
input_text, output_text = template.apply(example)
new_prompt = text_prompt + input_text + '\n\nAnswer: ' + output_text + '\n\n\n'
if len(tokenizer(new_prompt)['input_ids']) > max_len - 20:
break
text_prompt = new_prompt
return text_prompt, sampled_indices
def build_code_prompt(model, input_text):
len_input = len(tokenizer(input_text)['input_ids'])
code_prompt = ""
max_len = args.max_prompt - MAX_RESPONSE_TOKENS - len_input
sampled_indices = []
while True:
index = random.choice(range(len(dataset['train'])))
while index in sampled_indices:
index = random.choice(range(len(dataset['train'])))
sampled_indices.append(index)
example = dataset['train'][index]
input_text, output_text = apply_code_template(example)
new_prompt = code_prompt + input_text + output_text + '\n\n\n'
total_added = input_text + output_text + '\n\n\n'
if len(tokenizer(new_prompt)['input_ids']) > max_len - 20:
break
code_prompt = new_prompt
return code_prompt, sampled_indices
def run_llm(prompt, model, stop=['\n\n\n']):
model_name = {
"davinciOld": "davinci",
"davinci": "text-davinci-002",
"davinci3": "text-davinci-003",
"curie": "text-curie-001",
"ada": "text-ada-001",
"codex": "code-davinci-002",
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=0.7,
max_tokens=MAX_RESPONSE_TOKENS,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
preds = []
golds = []
full_indices = []
f = open("sampled_1000_indices.txt", "r")
example_indices = [int(s.strip()) for s in f.readlines()]
for index in tqdm(example_indices):
example = dataset['validation'][index]
if args.prompt == "text":
input_text, _ = template.apply(example)
prompt, indices = build_text_prompt(args.model, input_text)
pred = run_llm(prompt + input_text + '\n\nAnswer:', args.model)
elif args.prompt.startswith("code"):
input_text, _ = apply_code_template(example)
if len(tokenizer(input_text)['input_ids']) > args.max_prompt - MAX_RESPONSE_TOKENS:
preds.append("")
golds.append(example["highlights"])
full_indices.append("")
continue
prompt, indices = build_code_prompt(args.model, input_text)
pred = run_llm(prompt + input_text, args.model)
gold = example["highlights"]
preds.append(pred)
golds.append(gold)
full_indices.append(indices)
with open(f'pred-{args.model}-{args.max_prompt}-{args.prompt}.txt', 'w') as f:
f.writelines([x.strip('\"').replace('\n', ' ') + '\n' for x in preds])
with open(f'gold-{args.model}-{args.max_prompt}-{args.prompt}.txt', 'w') as f:
f.writelines([x.replace('\n', ' ') + '\n' for x in golds])
with open(f'indices-{args.model}-{args.max_prompt}-{args.prompt}.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in full_indices])
def evaluate():
scores = rouge.get_scores(f'pred-{args.model}-{args.max_prompt}-{args.prompt}.txt',f'gold-{args.model}-{args.max_prompt}-{args.prompt}.txt',avg=True) #TODO: Double check that this is correct/makes sense
print("Rouge Score", scores)
return "Rouge", scores
if __name__ == "__main__":
predict()
evaluate() | [
"cnn_dailymail/3.0.0",
"PLACEHOLDERPLACEHOLDER\n\nAnswer: PLACEHOLDER\n\n\n",
"{highlights}",
"2_or_3_sentences",
"PLACEHOLDERPLACEHOLDERPLACEHOLDER\n\n\n"
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~Winogrande~winogrande.py | import os
import argparse
import ast
import pickle
import random
import time
import numpy as np
import openai
from sklearn.metrics import accuracy_score, f1_score
from tqdm import tqdm
import utils
class Winogrande():
def __init__(self, templates):
self.apply_template = templates
def build_text_prompt(self, max_len):
print('Building prompts...')
text_prompt = ""
total_token = max_len
threshold = args.context_size
tolerance = 0
counter = 0
while total_token < threshold:
example_index = random.sample(range(len(dataset['train'])), 1)
example = dataset['train'][example_index]
input_text, output_text = self.apply_template(example)
candidate_prompt = input_text.replace('[', '').replace(']', '') + '\n\nAnswer: ' + output_text.replace('[', '').replace(']', '') + '\n\n\n'
token_count = utils.gpt3_tokenizer(candidate_prompt)
prev_total = total_token
if total_token + token_count < threshold:
text_prompt += candidate_prompt
total_token += token_count
counter += 1
if total_token - prev_total < 10:
tolerance += 1
if tolerance > 1:
break
print(f'Total samples in prompt: {counter}')
print(f'Average tokens per sample: {total_token / counter}')
return text_prompt
def build_code_prompt(self, max_len, prompt):
print('Building prompts...')
if prompt:
code_prompt = prompt
total_token = utils.gpt3_tokenizer(prompt)
else:
code_prompt = ""
total_token = max_len
threshold = args.context_size
tolerance = 0
while total_token < threshold:
example_index = random.sample(range(len(dataset['train'])), 1)
example = dataset['train'][example_index]
input_text, output_text = self.apply_template(example)
candidate_prompt = input_text + output_text + '\n\n'
token_count = utils.gpt3_tokenizer(candidate_prompt)
prev_total = total_token
if total_token + token_count < threshold:
code_prompt += candidate_prompt
total_token += token_count
if total_token - prev_total < 10:
tolerance += 1
if tolerance > 1:
break
return code_prompt
def parse_input(self, inp):
return '- ' + "'" + inp.replace('-', '').strip() + "'"
def run_llm(self, prompt, model, max_tokens, temperature=0.7, stop=['\n']):
model_name = {
"davinci": "text-davinci-002",
"davinci-old": "davinci",
"davinci003": "text-davinci-003",
"curie": "text-curie-001",
"codex": "code-davinci-002",
"ada": "text-ada-001",
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=temperature,
max_tokens=max_tokens,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
def predict(self, index=None):
val_data = dataset['validation']
if not index:
val_idx = np.random.choice(np.arange(len(val_data['answer'])), 1000, replace=False)
with open(f'./indices/{args.model}_val_idx.pkl', 'wb') as f:
pickle.dump(val_idx, f)
f.close()
else:
val_idx = pickle.load(open(f'./indices/{args.index}.pkl', 'rb'))
max_len = compute_longest_prompt(val_idx, val_data, self.apply_template)
if args.style == 'comment':
prompt = "'''\nThis is a coference resolution task. There will be a '_' in a given sentence and options will be provided. You need to choose from given options and fill in the '_'.\n'''\n\n"
elif args.style == 'class':
with open(f'./code-prompts/class_header.py') as f:
prompt = f.read()
f.close()
else:
prompt = None
if args.prompt == "text":
prompt = self.build_text_prompt(max_len)
elif args.prompt == "code":
prompt = self.build_code_prompt(max_len, prompt)
preds = []
golds = []
for idx in tqdm(val_idx):
example = val_data[int(idx)]
input_text, output_text = self.apply_template(example)
if args.prompt == 'text':
options = '[' + ','.join(['"' + e.replace('-', '').lower().strip() + '"' for e in input_text.split('\n')[-2:]]) + ']'
elif args.style == 'class':
options = input_text.split('\n')[-3].split('=')[-1].strip()
else:
options = input_text.split('\n')[-2].split('=')[-1].strip()
options = ast.literal_eval(options)
options = [e.strip().lower() for e in options]
if args.prompt == 'text':
input_text = input_text.split('\n')
input_text[-2], input_text[-1] = self.parse_input(input_text[-2]), self.parse_input(input_text[-1])
input_text = '\n'.join(input_text)
if args.prompt == "text":
pred = self.run_llm(prompt + input_text + '\n\nAnswer:', args.model, args.completion_size)
else:
pred = self.run_llm(prompt + input_text, args.model, args.completion_size)
pred = pred.replace("'", '').replace('"', '').lower().strip()
if pred in options:
pred = str(options.index(pred) + 1)
else:
pred = str(-1)
gold = example['answer']
preds.append(pred)
golds.append(gold)
pred_name, gold_name = get_fname()
with open(f'./result/{pred_name}.txt', 'w') as f:
f.writelines([x + '\n' for x in preds])
with open(f'./result/{gold_name}.txt', 'w') as f:
f.writelines([x + '\n' for x in golds])
def evaluate(self):
pred_name, gold_name = get_fname()
with open(f'./result/{pred_name}.txt', 'r') as f:
preds = [x.strip() for x in f.readlines()]
with open(f'./result/{gold_name}.txt', 'r') as f:
golds = [x.strip() for x in f.readlines()]
print("Accuracy", accuracy_score(golds, preds))
print("F1 Score", f1_score(golds, preds, average='macro'))
return accuracy_score(golds, preds)
def compute_longest_prompt(val_idx, val_data, apply_template):
max_len = 0
for idx in tqdm(val_idx):
example = val_data[int(idx)]
input_text, output_text = apply_template(example)
cur_len = utils.gpt3_tokenizer(input_text + '\n\nAnswer:')
if cur_len > max_len:
max_len = cur_len
return max_len
def apply_code_template(example):
with open(f'./code-prompts/{args.style}' + '.py') as f:
template = f.read()
ret = []
options = example['option1'] + example['option2']
for t in template.split('$'):
if type(example['sentence']) is list:
ret.append(t.replace("{sentence}", example["sentence"][0]).replace("{option1}", example["option1"][0]).replace("{option2}", example["option2"][0]).replace("{answer}", options[int(example["answer"][0])-1]))
else:
ret.append(t.replace("{sentence}", example["sentence"]).replace("{option1}", example["option1"]).replace("{option2}", example["option2"]).replace("{answer}", options[int(example["answer"])-1]))
return ret
def get_fname():
if not args.style:
pred_name = f'{args.prompt}_{args.model}_pred_{args.context_size}_{args.seed}'
else:
pred_name = f'{args.prompt}_{args.style}_{args.model}_pred_{args.context_size}'
if not args.style:
gold_name = f'{args.prompt}_{args.model}_gold_{args.context_size}_{args.seed}'
else:
gold_name = f'{args.prompt}_{args.style}_{args.model}_gold_{args.context_size}'
return pred_name, gold_name
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', type=str, default='text',help='Either text or code.')
parser.add_argument('--model', type=str, help='Either davinci, curie or codex.')
parser.add_argument('--style', type=str, help='choose style of code prompt from one of ["vanilla", "good_var_name", "with_comments", "class_obj"]')
parser.add_argument('--context_size', type=int, help='token threshold for GPT3 context prompt.')
parser.add_argument('--completion_size', type=int, help='token threshold for GPT3 completion.')
parser.add_argument('--seed', type=int, default=None, help='random seed')
parser.add_argument('--index', type=str, help='file name of the saved indices')
#parser.add_argument('--dataset', type=str, help='Name of the datasset')
#parser.add_argument('--xxx', action='store_true', help='')
parser.add_argument('--key', type=str, help='The name of the OpenAI API key file.')
if __name__ == '__main__':
args = parser.parse_args()
openai.api_key_path = f'../../_private/{args.key}.key'
if args.seed:
random.seed(args.seed)
np.random.seed(args.seed)
data_name = 'winogrande'
dataset, templates = utils.load_data(data_name)
if args.prompt == "text":
apply_template = templates.apply
elif args.prompt == "code":
apply_template = apply_code_template
inference_model = Winogrande(apply_template)
inference_model.predict()
inference_model.evaluate()
| [
"PLACEHOLDERPLACEHOLDER\n\n",
"'''\nThis is a coference resolution task. There will be a '_' in a given sentence and options will be provided. You need to choose from given options and fill in the '_'.\n'''\n\n",
"None",
"\n\n\n",
"\n\nAnswer: "
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~imdb~imdb.py | import argparse
import openai
from datasets import load_dataset
import random
random.seed(29)
from promptsource.templates import DatasetTemplates
import time
from sklearn.metrics import accuracy_score
import pickle
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("gpt2")
from scipy.stats import pearsonr
import backoff
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', default='text', type=str, help='Either text or code.')
parser.add_argument('--model', default='codex', type=str, help='Either davinci, curie or codex.')
parser.add_argument('--max_prompt', type=int, default=4000, help='Maximum number of tokens in the prompt.')
parser.add_argument('--key', default='harry', type=str, help='The name of the OpenAI API key file.')
parser.add_argument('--seed', default='', type=str, help='Random seed.')
args = parser.parse_args()
openai.api_key = open(f'../../_private/{args.key}.key').read()
if args.seed:
args.seed = '_' + args.seed
random.seed(int(args.seed[1:]))
SELECTED_PROMPT_NAME = "Movie Expressed Sentiment"
template = DatasetTemplates('imdb')[SELECTED_PROMPT_NAME]
dataset = load_dataset("imdb")
def apply_code_template(example):
with open(args.prompt + '.py') as f:
template = f.read()
ret = []
for t in template.split('$'):
ret.append(t.replace("{text}", example["text"]).replace("{label}", '"positive"' if example["label"] == 1 else '"negative"'))
return ret
if args.prompt == "text":
apply_template = template.apply
elif args.prompt.startswith("code"):
apply_template = apply_code_template
def predict():
# Build prompt
def build_text_prompt(example):
inference_input_text = apply_template(example)[0]
text_prompt = ""
prev_prompt = ""
example_indices = random.sample(range(len(dataset['train'])), 100)
for example_index in example_indices:
if len(tokenizer(text_prompt + inference_input_text)['input_ids']) > args.max_prompt - 20:
break
example = dataset['train'][example_index]
input_text, output_text = apply_template(example)
prev_prompt = text_prompt
text_prompt += input_text + ' ' + output_text + '.\n\n'
return(prev_prompt + inference_input_text)
def build_code_prompt(example):
inference_input_text = apply_template(example)[0]
text_prompt = ""
prev_prompt = ""
example_indices = random.sample(range(len(dataset['train'])), 100)
for example_index in example_indices:
if len(tokenizer(text_prompt + inference_input_text)['input_ids']) > args.max_prompt:
break
example = dataset['train'][example_index]
input_text, output_text = apply_template(example)
prev_prompt = text_prompt
text_prompt += input_text + output_text + '\n\n\n'
return(prev_prompt + inference_input_text)
@backoff.on_exception(backoff.expo, openai.error.RateLimitError)
def run_llm(prompt, model, temperature=0, stop=['\n']):
model_name = {
"davinci": "text-davinci-002",
"davinci003": "text-davinci-003",
"old_davinci": "davinci",
"curie": "text-curie-001",
"ada": "text-ada-001",
"codex": "code-davinci-002",
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=temperature,
max_tokens=5,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
preds = []
golds = []
print("Total examples: ", len(dataset['test']))
count = 0
#print(len(dataset['test']))
#raise SystemExit
with open("sampled_1000_indices.pkl", "rb") as f:
indices = pickle.load(f)
for index in indices:
example = dataset['test'][index]
#print(example)
#raise SystemExit
count += 1
print(count)
input_text, output_text = template.apply(example)
if args.prompt == "text":
prompt = build_text_prompt(example)
elif "code" in args.prompt:
prompt = build_code_prompt(example)
#print(len(tokenizer(prompt)['input_ids']))
#print(prompt)
#raise SystemExit
pred_text = run_llm(prompt, args.model)
if "negative" in pred_text:
pred = 0
else:
pred = 1
gold = example['label']
preds.append(pred)
golds.append(gold)
with open(f'pred_{args.model}_{args.prompt}_{args.max_prompt}{args.seed}.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in preds])
with open('gold.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in golds])
def evaluate():
with open(f'pred_{args.model}_{args.prompt}_{args.max_prompt}{args.seed}.txt', 'r') as f:
preds = [x.strip() for x in f.readlines()]
with open('gold.txt', 'r') as f:
golds = [x.strip() for x in f.readlines()]
print("Accuracy", accuracy_score(golds, preds))
return "Accuracy", accuracy_score(golds, preds)
if __name__ == "__main__":
predict()
evaluate() | [
"PLACEHOLDERPLACEHOLDER\n\n\n",
"PLACEHOLDER PLACEHOLDER.\n\n",
"Movie Expressed Sentiment"
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~OpenPI-v2~code-prompts~class_prefix.py | import openai
from utils import build_prompt
class EntityStateGeneration():
'''function to generate entity state changes given the goal, context, and current step of a procedure. '''
def __init__(self):
pass
def gpt4(self, prompt):
res = openai.Completion.create(
engine='text-davinci-004',
prompt=prompt,
temperature=0.7,
max_tokens=300,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=['\n\n']
)
return res
def forward(self, goal, context, cur_step):
prompt = build_prompt(goal, context, cur_step)
answer = self.gpt4(prompt)
return answer
entity_model = EntityStateGeneration()
| [] |
2024-01-10 | zharry29/curious_code_prompts | datasets~HotpotQA~hotpotqa.py | import time
import json
import utils
import random
import pickle
import openai
import argparse
import numpy as np
from tqdm import tqdm
from datasets import load_dataset
from sklearn.metrics import accuracy_score
class HotpotQA():
def __init__(self, apply_template):
self.apply_template = apply_template
def build_text_prompt(self, input_text):
text_prompt = ""
total_token = utils.gpt3_tokenizer(input_text)
threshold = args.context_size
counter = 0
while total_token < threshold:
example_index = random.sample(range(len(dataset['train'])), 1)[0]
example = dataset['train'][example_index]
input_text, output_text = self.apply_template(example)
candidate_prompt = input_text.replace('[', '').replace(']', '') + '\n\nAnswer: ' + output_text.replace('[', '').replace(']', '') + '\n\n\n'
token_count = utils.gpt3_tokenizer(candidate_prompt)
if total_token + token_count < threshold:
text_prompt += candidate_prompt
total_token += token_count
counter += 1
else:
if text_prompt:
break
print(f'Total samples in prompt: {counter}')
print(f'Average tokens per sample: {total_token / counter}')
return text_prompt
def build_code_prompt(self, input_text, prompt=None):
if prompt:
text_prompt = prompt
else:
text_prompt = ""
total_token = utils.gpt3_tokenizer(input_text)
threshold = args.context_size
tolerance = 0
while total_token < threshold:
example_index = random.sample(range(len(dataset['train'])), 1)
example = dataset['train'][example_index]
input_text, output_text = self.apply_template(example)
candidate_prompt = input_text + output_text + '\n\n'
token_count = utils.gpt3_tokenizer(candidate_prompt)
prev_total = total_token
if total_token + token_count < threshold:
text_prompt += candidate_prompt
total_token += token_count
if total_token - prev_total < 10:
tolerance += 1
if tolerance > 1:
break
return text_prompt
def run_llm(self, prompt, model, max_tokens, temperature=0.7, stop=['\n']):
model_name = {
"davinci": "text-davinci-002",
"davinci003": "text-davinci-003",
"curie": "text-curie-001",
"codex": "code-davinci-002",
"ada": "text-ada-001",
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=temperature,
max_tokens=max_tokens,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
def predict(self, index=None):
val_data = dataset['validation']
if not index:
val_idx = np.random.choice(np.arange(len(val_data['answer'])), 1000, replace=False)
with open(f'./indices/{args.model}_val_idx.pkl', 'wb') as f:
pickle.dump(val_idx, f)
f.close()
else:
val_idx = pickle.load(open(f'./indices/{args.index}.pkl', 'rb'))
preds = {}
golds = []
preds['answer'] = {}
for i, idx in enumerate(tqdm(val_idx)):
example = val_data[int(idx)]
input_text, output_text = self.apply_template(example)
if args.style == 'comment':
prompt = open('./code-prompts/comment_prefix.py').read()
elif args.style == 'class':
prompt = open('./code-prompts/class_prefix.py').read()
else:
prompt = None
if args.prompt == "text":
prompt = self.build_text_prompt(input_text)
elif args.prompt == "code":
prompt = self.build_code_prompt(input_text, prompt)
if args.prompt == 'text':
pred = self.run_llm(prompt + input_text + '\n\nAnswer:', args.model, args.completion_size)
else:
pred = self.run_llm(prompt + input_text, args.model, args.completion_size)
gold = example['answer']
preds['answer'][f'seacow-{i}'] = pred
golds.append({'_id': f'seacow-{i}', 'answer': gold})
pred_name, gold_name = get_fname()
with open(f'./result/{pred_name}.json', 'w') as f:
json.dump(preds, f, indent=4)
f.close()
with open(f'./result/{gold_name}.pkl', 'wb') as f:
pickle.dump(golds, f)
f.close()
def evaluate():
with open('pred.txt', 'r') as f:
preds = [x.strip() for x in f.readlines()]
with open('gold.txt', 'r') as f:
golds = [x.strip() for x in f.readlines()]
print("Accuracy", accuracy_score(golds, preds))
return accuracy_score(golds, preds)
def apply_code_template(example):
with open(f'./code-prompts/{args.style}' + '.py') as f:
template = f.read()
ret = []
question = example['question']
answer = example['answer']
if type(question) is list:
question = question[0]
if type(answer) is list:
answer = answer[0]
try:
supporting_facts = example['context']['sentences']
except:
supporting_facts = example['context'][0]['sentences']
supporting_facts = [[s.replace('"', "'") for s in supporting_facts[i]] for i in range(len(supporting_facts))]
if args.style == 'vanilla':
supporting_facts_vars = [f'input{str(i+2)} = "{" ".join(supporting_facts[i])}"' for i in range(len(supporting_facts))]
elif args.style in ['good_varname', 'comment']:
supporting_facts_vars = [f'supporting_fact{str(i+1)} = "{" ".join(supporting_facts[i])}"' for i in range(len(supporting_facts))]
elif args.style == 'class':
supporting_facts_vars = [f'\t"{" ".join(supporting_facts[i])}"' for i in range(len(supporting_facts))]
supporting_facts = '\n'.join(supporting_facts_vars)
for t in template.split('$'):
ret.append(t.replace('{question}', question.replace('"', "'")).replace('{supporting-documents}', supporting_facts).replace('{answer}', answer))
return ret
def get_fname():
if not args.style:
pred_name = f'{args.prompt}_{args.model}_pred_{args.context_size}_{args.seed}'
else:
pred_name = f'{args.prompt}_{args.style}_{args.model}_pred_{args.context_size}'
if not args.style:
gold_name = f'{args.prompt}_{args.model}_gold_{args.context_size}_{args.seed}'
else:
gold_name = f'{args.prompt}_{args.style}_{args.model}_gold_{args.context_size}'
return pred_name, gold_name
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', type=str, help='Either text or code.')
parser.add_argument('--model', type=str, help='Either davinci, curie or codex.')
parser.add_argument('--context_size', type=int, help='Context window size of GPT3 model.')
parser.add_argument('--completion_size', type=int, help='completion (max_lens) size of GPT3 model.')
parser.add_argument('--style', type=str, help='choose style of code prompt from one of ["vanilla", "good_var_name", "with_comments", "class_obj"]')
parser.add_argument('--index', type=str, help='file name of the saved indices')
parser.add_argument('--seed', type=int, default=None, help='random seed')
#parser.add_argument('--dataset', type=str, help='Name of the datasset')
#parser.add_argument('--xxx', action='store_true', help='')
parser.add_argument('--key', type=str, help='The name of the OpenAI API key file.')
def compute_longest_prompt(val_idx, val_data, apply_template):
max_len = 0
for idx in tqdm(val_idx):
example = val_data[int(idx)]
input_text, output_text = apply_template(example)
cur_len = utils.gpt3_tokenizer(input_text + '\n\nAnswer:')
if cur_len > max_len:
max_len = cur_len
return max_len
if __name__ == '__main__':
args = parser.parse_args()
openai.api_key_path = f'../../_private/{args.key}.key'
if args.seed:
np.random.seed(args.seed)
random.seed(args.seed)
data_name = 'hotpot_qa'
dataset, templates = utils.load_data(data_name)
if args.prompt == "text":
apply_template = templates.apply
elif args.prompt == "code":
apply_template = apply_code_template
inference_model = HotpotQA(apply_template)
inference_model.predict(args.index)
inference_model.evaluate()
| [
"./code-prompts/comment_prefix.py",
"PLACEHOLDERPLACEHOLDER\n\n",
"None",
"./code-prompts/class_prefix.py",
"\n\n\n",
"\n\nAnswer: "
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~wikihow_temporal~wikihow_temporal.py | import argparse
import openai
from datasets import load_dataset
import random
random.seed(29)
from promptsource.templates import DatasetTemplates
import time
from sklearn.metrics import accuracy_score
import csv
import pickle
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("gpt2")
import backoff
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', default='text', type=str, help='Either text or code.')
parser.add_argument('--model', default='codex', type=str, help='Either davinci, curie or codex.')
parser.add_argument('--max_prompt', type=int, default=4000, help='Maximum number of tokens in the prompt.')
parser.add_argument('--key', default='harry', type=str, help='The name of the OpenAI API key file.')
parser.add_argument('--seed', default='', type=str, help='Random seed.')
args = parser.parse_args()
openai.api_key = open(f'../../_private/{args.key}.key').read()
if args.seed:
args.seed = '_' + args.seed
random.seed(int(args.seed[1:]))
def load_data():
dataset = {'train': [], 'test': []}
for split in ['train', 'test']:
with open(f'order_{split}.csv', encoding = "ISO-8859-1") as f:
reader = csv.DictReader(f)
for row in reader:
dataset[split].append(row)
return dataset
dataset = load_data()
def apply_text_template(example):
input_prompt = f"You are trying to {example['goal'].lower()}. You need to do two things:\n(a) {example['step0'].strip('.')}\n(b) {example['step1'].strip('.')}\nThe first thing to do is"
output_prompt = ['(a) ' + example['step0'].strip('.'), '(b) ' + example['step1'].strip('.')][int(example["label"])]
return input_prompt, output_prompt
def apply_code_template(example):
with open(args.prompt + '.py') as f:
template = f.read()
ret = []
for t in template.split('$'):
ret.append(t.replace("{step0}", example["step0"]).replace("{step1}", example["step1"]).replace("{goal}", example["goal"]).replace("{label_first}", str(example["label"])).replace("{label_after}", str(1-int(example["label"]))))
return ret
if args.prompt == "text":
apply_template = apply_text_template
elif args.prompt.startswith("code"):
apply_template = apply_code_template
def predict():
# Build prompt
def build_text_prompt(example):
inference_input_text = apply_template(example)[0]
text_prompt = ""
prev_prompt = ""
example_indices = random.sample(range(len(dataset['train'])), 100)
for example_index in example_indices:
if len(tokenizer(text_prompt + inference_input_text)['input_ids']) > args.max_prompt - 20:
break
example = dataset['train'][example_index]
input_text, output_text = apply_template(example)
prev_prompt = text_prompt
text_prompt += input_text + ' ' + output_text + '\n\n'
return(prev_prompt + inference_input_text)
def build_code_prompt(example):
inference_input_text = apply_template(example)[0]
text_prompt = ""
prev_prompt = ""
example_indices = random.sample(range(len(dataset['train'])), 100)
for example_index in example_indices:
if len(tokenizer(text_prompt + inference_input_text)['input_ids']) > args.max_prompt:
break
example = dataset['train'][example_index]
input_text, output_text = apply_template(example)
prev_prompt = text_prompt
text_prompt += input_text + output_text + '\n\n\n'
return(prev_prompt + inference_input_text)
@backoff.on_exception(backoff.expo, openai.error.RateLimitError)
def run_llm(prompt, model, temperature=0, stop=['\n']):
model_name = {
"davinci": "text-davinci-002",
"davinci003": "text-davinci-003",
"old_davinci": "davinci",
"curie": "text-curie-001",
"ada": "text-ada-001",
"codex": "code-davinci-002",
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=temperature,
max_tokens=20,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
preds = []
golds = []
print("Total examples: ", len(dataset['test']))
count = 0
with open("sampled_1000_indices.pkl", "rb") as f:
indices = pickle.load(f)
for index in indices:
example = dataset['test'][index]
count += 1
print(count)
if args.prompt == "text":
prompt = build_text_prompt(example)
elif "code" in args.prompt:
prompt = build_code_prompt(example)
pred_text = run_llm(prompt, args.model)
#print(prompt)
#print(pred_text)
#print(len(tokenizer(prompt)['input_ids']))
if args.prompt == "text":
if '(b)' in pred_text:
pred = 1
else:
pred = 0
else:
if 'input1, input0' in pred_text:
pred = 1
else:
pred = 0
#print(pred)
#raise SystemExit
gold = int(example['label'])
preds.append(pred)
golds.append(gold)
with open(f'pred_{args.model}_{args.prompt}_{args.max_prompt}{args.seed}.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in preds])
with open('gold.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in golds])
def evaluate():
with open(f'pred_{args.model}_{args.prompt}_{args.max_prompt}{args.seed}.txt', 'r') as f:
preds = [x.strip() for x in f.readlines()]
with open('gold.txt', 'r') as f:
golds = [x.strip() for x in f.readlines()]
print("Accuracy", accuracy_score(golds, preds))
return "Accuracy", accuracy_score(golds, preds)
if __name__ == "__main__":
predict()
evaluate() | [
"(a) ",
"You are trying to placeholder. You need to do two things:\n(a) PLACEHOLDER\n(b) PLACEHOLDER\nThe first thing to do is",
"(b) ",
"PLACEHOLDER PLACEHOLDER\n\n",
"PLACEHOLDERPLACEHOLDER\n\n\n"
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~xsum~xsum.py | import argparse
import openai
from datasets import load_dataset
import random
random.seed(29)
from promptsource.templates import DatasetTemplates
import time
from transformers import AutoTokenizer
from tqdm import tqdm
from rouge import FilesRouge
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', required=True, type=str, help='Either text or code.')
parser.add_argument('--model', required=True, type=str, help='Either davinci, curie or codex.')
parser.add_argument('--max_prompt', type=int, default=4000, help='Maximum number of tokens in the prompt.')
parser.add_argument('--key', required=True, type=str, help='The name of the OpenAI API key file.')
args = parser.parse_args()
openai.api_key = open(f'../../_private/{args.key}.key').read()
SELECTED_PROMPT_NAME = "DOC_tldr"
MAX_RESPONSE_TOKENS = 50
rouge = FilesRouge()
template = DatasetTemplates("xsum")[SELECTED_PROMPT_NAME]
dataset = load_dataset("xsum", cache_dir="/nlp/data/huggingface_cache")
tokenizer = AutoTokenizer.from_pretrained("gpt2")
print(args.max_prompt)
def apply_code_template(example):
with open(args.prompt + '.py') as f:
template = f.read()
input = example["document"].replace('\n','')
template = template.replace("{article}", input).replace("{highlights}", example["summary"])
return template.split("<\split>")
def predict():
# Build prompt
def build_text_prompt(input_text):
len_input = len(tokenizer(input_text)['input_ids'])
text_prompt = ""
max_len = args.max_prompt - MAX_RESPONSE_TOKENS - len_input
sampled_indices = []
while True:
index = random.choice(range(len(dataset['train'])))
while index in sampled_indices:
index = random.choice(range(len(dataset['train'])))
sampled_indices.append(index)
example = dataset['train'][index]
input_text, output_text = template.apply(example)
new_prompt = text_prompt + input_text + ' ' + output_text + '\n\n\n'
if len(tokenizer(new_prompt)['input_ids']) > max_len - 50:
break
text_prompt = new_prompt
return text_prompt, sampled_indices
def build_code_prompt(model, input_text):
len_input = len(tokenizer(input_text)['input_ids'])
code_prompt = ""
max_len = args.max_prompt - MAX_RESPONSE_TOKENS - len_input
sampled_indices = []
while True:
index = random.choice(range(len(dataset['train'])))
while index in sampled_indices:
index = random.choice(range(len(dataset['train'])))
sampled_indices.append(index)
example = dataset['train'][index]
input_text, output_text = apply_code_template(example)
new_prompt = code_prompt + input_text + output_text + '\n\n'
if len(tokenizer(new_prompt)['input_ids']) > max_len - 50:
break
code_prompt = new_prompt
return code_prompt, sampled_indices
def run_llm(prompt, model, stop=['\n\n\n']):
model_name = {
"davinci": "text-davinci-002",
"davinciOld": "davinci",
"davinci3": "text-davinci-003",
"curie": "text-curie-001",
"ada": "text-ada-001",
"codex": "code-davinci-002",
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=0.7,
max_tokens=MAX_RESPONSE_TOKENS,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
preds = []
golds = []
full_indices = []
f = open("sampled_1000_indices.txt", "r")
example_indices = [int(s.strip()) for s in f.readlines()]
for index in tqdm(example_indices):
example = dataset['validation'][index]
if args.prompt == "text":
input_text, _ = template.apply(example)
prompt, indices = build_text_prompt(args.model, input_text)
pred = run_llm(prompt + input_text, args.model)
elif args.prompt.startswith("code"):
input_text, _ = apply_code_template(example)
if len(tokenizer(input_text)['input_ids']) > args.max_prompt - MAX_RESPONSE_TOKENS:
preds.append("")
golds.append(example["summary"])
full_indices.append("")
continue
prompt, indices = build_code_prompt(args.model, input_text)
pred = run_llm(prompt + input_text, args.model)
gold = example["summary"]
preds.append(pred)
golds.append(gold)
full_indices.append(indices)
with open(f'pred-{args.model}-{args.max_prompt}-{args.prompt}.txt', 'w') as f:
f.writelines([x.strip('\"').replace('\n', ' ') + '\n' for x in preds])
with open(f'gold-{args.model}-{args.max_prompt}-{args.prompt}.txt', 'w') as f:
f.writelines([x.replace('\n', ' ') + '\n' for x in golds])
with open(f'indices-{args.model}-{args.max_prompt}-{args.prompt}.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in full_indices])
def evaluate():
scores = rouge.get_scores(f'pred-{args.model}-{args.max_prompt}-{args.prompt}.txt',f'gold-{args.model}-{args.max_prompt}-{args.prompt}.txt',avg=True) #TODO: Double check that this is correct/makes sense
print("Rouge Score", scores)
return "Rouge", scores
if __name__ == "__main__":
predict()
evaluate() | [
"{highlights}",
"PLACEHOLDERPLACEHOLDER PLACEHOLDER\n\n\n",
"DOC_tldr",
"PLACEHOLDERPLACEHOLDERPLACEHOLDER\n\n"
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~mmlu~mmlu.py | import argparse
import openai
import os
import numpy as np
import pandas as pd
import time
from crop import crop
choices = ["A", "B", "C", "D"]
def softmax(x):
z = x - max(x)
numerator = np.exp(z)
denominator = np.sum(numerator)
softmax = numerator/denominator
return softmax
def format_subject(subject):
l = subject.split("_")
s = ""
for entry in l:
s += " " + entry
return s
def format_example(df, idx, include_answer=True):
# print("Index " + str(idx))
# print("DF len " + str(len(df)))
prompt = df.iloc[idx, 0]
k = df.shape[1] - 2
for j in range(k):
prompt += "\n{}. {}".format(choices[j], df.iloc[idx, j+1])
prompt += "\nAnswer:"
if include_answer:
prompt += " {}\n\n".format(df.iloc[idx, k + 1])
return prompt
def gen_text_prompt(train_df, subject, k=-1):
prompt = "The following are multiple choice questions (with answers) about {}.\n\n".format(format_subject(subject))
if k == -1:
k = train_df.shape[0]
for i in range(k):
#print("I am in generating text prompt on train df")
prompt += format_example(train_df, i)
return prompt
def gen_prompt(args, train_df, subject, k=-1):
if args.prompt == 'text':
return gen_text_prompt(train_df, subject, k)
if args.prompt == 'code':
print("Code prompt not implemented! - Using text prompt")
return gen_text_prompt(train_df, subject, k)
def eval(args, subject, engine, dev_df, test_df):
cors = []
all_probs = []
answers = choices[:test_df.shape[1]-2]
for i in range(test_df.shape[0]):
# get prompt and make sure it fits
k = args.ntrain
#print("I am in generating text prompt on test df")
prompt_end = format_example(test_df, i, include_answer=False)
train_prompt = gen_prompt(args, dev_df, subject, k)
prompt = train_prompt + prompt_end
while crop(prompt) != prompt:
k -= 1
train_prompt = gen_prompt(args, dev_df, subject, k)
prompt = train_prompt + prompt_end
label = test_df.iloc[i, test_df.shape[1]-1]
#print(k)
while True:
try:
c = openai.Completion.create(
engine=engine,
prompt=prompt,
max_tokens=1,
logprobs=100,
temperature=0,
echo=True
)
break
except:
print("pausing")
time.sleep(1)
continue
lprobs = []
for ans in answers:
try:
lprobs.append(c["choices"][0]["logprobs"]["top_logprobs"][-1][" {}".format(ans)])
except:
print("Warning: {} not found. Artificially adding log prob of -100.".format(ans))
lprobs.append(-100)
pred = {0: "A", 1: "B", 2: "C", 3: "D"}[np.argmax(lprobs)]
probs = softmax(np.array(lprobs))
cor = pred == label
cors.append(cor)
all_probs.append(probs)
acc = np.mean(cors)
cors = np.array(cors)
all_probs = np.array(all_probs)
print("Average accuracy {:.3f} - {}".format(acc, subject))
return cors, acc, all_probs
def main(args):
if not os.path.exists(args.data_dir):
print("No data found -- Downloading dataset")
import wget, tarfile
os.mkdir(args.data_dir)
wget.download("https://people.eecs.berkeley.edu/~hendrycks/data.tar", "data.tar")
data = tarfile.open('data.tar')
data.extractall(args.data_dir)
data.close()
os.remove('data.tar')
args.data_dir += '/data'
engines = args.model
subjects = sorted([f.split("_test.csv")[0] for f in os.listdir(os.path.join(args.data_dir, "test")) if "_test.csv" in f])
if not os.path.exists(args.save_dir):
os.mkdir(args.save_dir)
for engine in engines:
if not os.path.exists(os.path.join(args.save_dir, "results_{}".format(engine))):
os.mkdir(os.path.join(args.save_dir, "results_{}".format(engine)))
print(subjects)
print(args)
for engine in engines:
print(engine)
all_cors = []
for subject in subjects:
dev_df = pd.read_csv(os.path.join(args.data_dir, "dev", subject + "_dev.csv"), header=None)
val_df = pd.read_csv(os.path.join(args.data_dir, "val", subject + "_val.csv"), header=None)
dev_df = pd.concat([dev_df, val_df])
test_df = pd.read_csv(os.path.join(args.data_dir, "test", subject + "_test.csv"), header=None)
cors, acc, probs = eval(args, subject, engine, dev_df, test_df)
all_cors.append(cors)
test_df["{}_correct".format(engine)] = cors
for j in range(probs.shape[1]):
choice = choices[j]
test_df["{}_choice{}_probs".format(engine, choice)] = probs[:, j]
test_df.to_csv(os.path.join(args.save_dir, "results_{}".format(engine), "{}.csv".format(subject)), index=None)
weighted_acc = np.mean(np.concatenate(all_cors))
print("Average accuracy: {:.3f}".format(weighted_acc))
if __name__ == "__main__":
parser = argparse.ArgumentParser()
parser.add_argument("--ntrain", "-k", type=int, default=5)
parser.add_argument("--data_dir", "-d", type=str, default="data")
parser.add_argument("--save_dir", "-s", type=str, default="results")
parser.add_argument("--model", "-e", choices=["davinci", "curie", "babbage", "ada"],
default=["davinci", "curie", "babbage", "ada"], nargs="+")
parser.add_argument('--prompt', required=True, type=str, help='Either text or code.')
parser.add_argument('--key', required=True, type=str, help='The name of the OpenAI API key file.')
args = parser.parse_args()
openai.api_key = open(f'../../_private/{args.key}.key').read()
main(args) | [
"\n{}. {}",
"PLACEHOLDERPLACEHOLDER",
"\nAnswer:",
"The following are multiple choice questions (with answers) about {}.\n\n",
" {}\n\n"
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~squad~squad.py | import argparse
import openai
from datasets import load_dataset
import random
random.seed(29)
from promptsource.templates import DatasetTemplates
import time
from transformers import AutoTokenizer
from tqdm import tqdm
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', required=True, type=str, help='Either text or code.')
parser.add_argument('--model', required=True, type=str, help='Either davinci, curie or codex.')
parser.add_argument('--max_prompt', type=int, default=4000, help='Maximum number of tokens in the prompt.')
parser.add_argument('--key', required=True, type=str, help='The name of the OpenAI API key file.')
args = parser.parse_args()
openai.api_key = open(f'../../_private/{args.key}.key').read()
SELECTED_PROMPT_NAME = "Questions with Context +unanswerable"
MAX_RESPONSE_TOKENS = 300
template = DatasetTemplates("squad_v2")[SELECTED_PROMPT_NAME]
dataset = load_dataset("squad_v2", cache_dir="/nlp/data/huggingface_cache")
tokenizer = AutoTokenizer.from_pretrained("gpt2")
def apply_code_template(example):
with open(args.prompt + '.py') as f:
template = f.read()
answer = example["answers"]["text"][0] if len(example["answers"]["text"]) > 0 else "unanswerable"
template = template.replace("{context}", example["context"]).replace("{question}", example["question"]).replace("{answer}", answer)
return template.split("<\split>")
def predict():
# Build prompt
def build_text_prompt(model, input_text):
len_input = len(tokenizer(input_text)['input_ids'])
text_prompt = ""
max_len = args.max_prompt - MAX_RESPONSE_TOKENS - len_input
sampled_indices = []
while True:
index = random.choice(range(len(dataset['train'])))
while index in sampled_indices:
index = random.choice(range(len(dataset['train'])))
sampled_indices.append(index)
example = dataset['train'][index]
input_text, output_text = template.apply(example)
new_prompt = text_prompt + input_text + ' ' + output_text + '\n\n'
if len(tokenizer(new_prompt)['input_ids']) > max_len:
break
text_prompt = new_prompt
return text_prompt, sampled_indices
def build_code_prompt(model, input_text):
len_input = len(tokenizer(input_text)['input_ids'])
code_prompt = ""
max_len = args.max_prompt - MAX_RESPONSE_TOKENS - len_input
sampled_indices = []
while True:
index = random.choice(range(len(dataset['train'])))
while index in sampled_indices:
index = random.choice(range(len(dataset['train'])))
sampled_indices.append(index)
example = dataset['train'][index]
input_text, output_text = apply_code_template(example)
new_prompt = code_prompt + input_text + output_text + '\n\n'
if len(tokenizer(new_prompt)['input_ids']) > max_len - 20:
break
code_prompt = new_prompt
return code_prompt, sampled_indices
def run_llm(prompt, model, temperature=0, stop=['\n']):
model_name = {
"davinciOld": "davinci",
"davinci": "text-davinci-002",
"davinci3": "text-davinci-003",
"curie": "text-curie-001",
"ada": "text-ada-001",
"codex": "code-davinci-002",
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=temperature,
max_tokens=MAX_RESPONSE_TOKENS,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
preds = []
golds = []
full_indices = []
f = open("sampled_1000_indices.txt", "r")
example_indices = [int(s.strip()) for s in f.readlines()]
for index in tqdm(example_indices):
example = dataset['validation'][index]
if args.prompt == "text":
input_text, _ = template.apply(example)
prompt, indices = build_text_prompt(args.model, input_text)
pred = run_llm(prompt + input_text, args.model)
elif args.prompt.startswith("code"):
input_text, _ = apply_code_template(example)
prompt, indices = build_code_prompt(args.model, input_text)
pred = run_llm(prompt + input_text, args.model)
gold = example["answers"]["text"]
pred = normalize_text(pred)
preds.append(pred if pred != 'unanswerable' else '')
golds.append(gold if len(gold) > 0 else [''])
full_indices.append(indices)
with open(f'pred-{args.model}-{args.max_prompt}-{args.prompt}.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in preds])
with open(f'gold-{args.model}-{args.max_prompt}-{args.prompt}.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in golds])
with open(f'indices-{args.model}-{args.max_prompt}-{args.prompt}.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in full_indices])
def normalize_text(s):
"""Removing articles and punctuation, and standardizing whitespace are all typical text processing steps."""
import string, re
def remove_articles(text):
regex = re.compile(r"\b(a|an|the)\b", re.UNICODE)
return re.sub(regex, " ", text)
def white_space_fix(text):
return " ".join(text.split())
def remove_punc(text):
exclude = set(string.punctuation)
return "".join(ch for ch in text if ch not in exclude)
def lower(text):
return text.lower()
return white_space_fix(remove_articles(remove_punc(lower(s))))
def compute_exact_match(prediction, truth):
return int(normalize_text(prediction) == normalize_text(truth))
def compute_f1(prediction, truth):
pred_tokens = normalize_text(prediction).split()
truth_tokens = normalize_text(truth).split()
# if either the prediction or the truth is no-answer then f1 = 1 if they agree, 0 otherwise
if len(pred_tokens) == 0 or len(truth_tokens) == 0:
return int(pred_tokens == truth_tokens)
common_tokens = set(pred_tokens) & set(truth_tokens)
# if there are no common tokens then f1 = 0
if len(common_tokens) == 0:
return 0
prec = len(common_tokens) / len(pred_tokens)
rec = len(common_tokens) / len(truth_tokens)
return 2 * (prec * rec) / (prec + rec)
def evaluate():
with open(f'pred-{args.model}-{args.max_prompt}-{args.prompt}.txt', 'r') as f:
preds = [x.strip() for x in f.readlines()]
with open(f'gold-{args.model}-{args.max_prompt}-{args.prompt}.txt', 'r') as f:
golds = [eval(x.strip()) for x in f.readlines()]
em_scores = []
f1_scores = []
for pred, gold in zip(preds,golds):
em = max((compute_exact_match(pred, answer)) for answer in gold)
f1 = max((compute_f1(pred, answer)) for answer in gold)
em_scores.append(em)
f1_scores.append(f1)
em = sum(em_scores) / len(em_scores)
f1 = sum(f1_scores) / len(f1_scores) #TODO: Double check that this is the right way to report this
print("EM", em)
print("F1", f1)
return em, f1
if __name__ == "__main__":
predict()
evaluate() | [
"{context}",
"{answer}",
"PLACEHOLDERPLACEHOLDER PLACEHOLDER\n\n",
"question",
"PLACEHOLDERPLACEHOLDERPLACEHOLDER\n\n",
"Questions with Context +unanswerable",
"context",
"{question}"
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~wikihow_goal_step~wikihow_goal_step.py | import argparse
import openai
from datasets import load_dataset
import random
random.seed(29)
from promptsource.templates import DatasetTemplates
import time
from sklearn.metrics import accuracy_score
import csv
import pickle
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("gpt2")
import backoff
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', default='text', type=str, help='Either text or code.')
parser.add_argument('--model', default='codex', type=str, help='Either davinci, curie or codex.')
parser.add_argument('--max_prompt', type=int, default=4000, help='Maximum number of tokens in the prompt.')
parser.add_argument('--key', default='harry', type=str, help='The name of the OpenAI API key file.')
parser.add_argument('--seed', default='', type=str, help='Random seed.')
args = parser.parse_args()
openai.api_key = open(f'../../_private/{args.key}.key').read()
if args.seed:
args.seed = '_' + args.seed
random.seed(int(args.seed[1:]))
def load_data():
dataset = {'train': [], 'test': []}
for split in ['train', 'test']:
with open(f'goal_{split}.csv', encoding = "ISO-8859-1") as f:
reader = csv.DictReader(f)
for row in reader:
dataset[split].append(row)
return dataset
dataset = load_data()
def apply_text_template(example):
input_prompt = f"Given an action: {example['step'].strip('.')}\nWhat is the most likely goal of that action?\n(a) {example['goal0']}\n(b) {example['goal1']}\n(c) {example['goal2']}\n(d) {example['goal3']}\nThe most likely goal is: "
output_prompt = ['(a)', '(b)', '(c)', '(d)'][int(example['label'])] + ' ' + example[f"goal{example['label']}"]
return input_prompt, output_prompt
def apply_code_template(example):
with open(args.prompt + '.py') as f:
template = f.read()
ret = []
for t in template.split('$'):
ret.append(t.replace("{step}", example["step"]).replace("{goal0}", example["goal0"]).replace("{goal1}", example["goal1"]).replace("{goal2}", example["goal2"]).replace("{goal3}", example["goal3"]).replace("{label}", str(example["label"])))
return ret
if args.prompt == "text":
apply_template = apply_text_template
elif args.prompt.startswith("code"):
apply_template = apply_code_template
def predict():
# Build prompt
def build_text_prompt(example):
inference_input_text = apply_template(example)[0]
text_prompt = ""
prev_prompt = ""
example_indices = random.sample(range(len(dataset['train'])), 100)
for example_index in example_indices:
if len(tokenizer(text_prompt + inference_input_text)['input_ids']) > args.max_prompt - 20:
break
example = dataset['train'][example_index]
input_text, output_text = apply_template(example)
prev_prompt = text_prompt
text_prompt += input_text + ' ' + output_text + '\n\n'
return(prev_prompt + inference_input_text)
def build_code_prompt(example):
inference_input_text = apply_template(example)[0]
text_prompt = ""
prev_prompt = ""
example_indices = random.sample(range(len(dataset['train'])), 100)
for example_index in example_indices:
if len(tokenizer(text_prompt + inference_input_text)['input_ids']) > args.max_prompt:
break
example = dataset['train'][example_index]
input_text, output_text = apply_template(example)
prev_prompt = text_prompt
text_prompt += input_text + output_text + '\n\n\n'
return(prev_prompt + inference_input_text)
@backoff.on_exception(backoff.expo, openai.error.RateLimitError)
def run_llm(prompt, model, temperature=0, stop=['\n']):
model_name = {
"davinci": "text-davinci-002",
"davinci003": "text-davinci-003",
"old_davinci": "davinci",
"curie": "text-curie-001",
"ada": "text-ada-001",
"codex": "code-davinci-002",
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=temperature,
max_tokens=20,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
preds = []
golds = []
print("Total examples: ", len(dataset['test']))
count = 0
with open("sampled_1000_indices.pkl", "rb") as f:
indices = pickle.load(f)
for index in indices:
example = dataset['test'][index]
count += 1
print(count)
if args.prompt == "text":
prompt = build_text_prompt(example)
elif "code" in args.prompt:
prompt = build_code_prompt(example)
pred_text = run_llm(prompt, args.model)
if args.prompt == "text":
if '(b)' in pred_text:
pred = 1
else:
pred = 0
else:
pred = int(pred_text.strip()[0])
#print(prompt)
#print(pred_text)
#print(len(tokenizer(prompt)['input_ids']))
#raise SystemExit
gold = int(example['label'])
preds.append(pred)
golds.append(gold)
with open(f'pred_{args.model}_{args.prompt}_{args.max_prompt}{args.seed}.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in preds])
with open('gold.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in golds])
def evaluate():
with open(f'pred_{args.model}_{args.prompt}_{args.max_prompt}{args.seed}.txt', 'r') as f:
preds = [x.strip() for x in f.readlines()]
with open('gold.txt', 'r') as f:
golds = [x.strip() for x in f.readlines()]
print("Accuracy", accuracy_score(golds, preds))
return "Accuracy", accuracy_score(golds, preds)
if __name__ == "__main__":
predict()
evaluate() | [
"Given an action: PLACEHOLDER\nWhat is the most likely goal of that action?\n(a) PLACEHOLDER\n(b) PLACEHOLDER\n(c) PLACEHOLDER\n(d) PLACEHOLDER\nThe most likely goal is: ",
"PLACEHOLDER PLACEHOLDER\n\n",
" ",
"goalPLACEHOLDER",
"PLACEHOLDERPLACEHOLDER\n\n\n"
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~OpenPI-v2~openpi.py | import re
import ast
import json
import time
import utils
import pickle
import random
import openai
import argparse
import numpy as np
from tqdm import tqdm
from datasets import load_dataset
from sklearn.metrics import accuracy_score
class OpenPI():
def __init__(self, metadata, apply_template):
self.metadata = metadata
self.apply_template = apply_template
def build_text_prompt(self, max_len):
train_dict = self.metadata['train']
prompt = ''
cur_len = 0
counter = 0
while cur_len + max_len <= args.context_size:
cur_idx = str(np.random.choice(len(train_dict), 1, replace=False)[0])
event_dict = train_dict[cur_idx]
goal = event_dict['goal']
steps = event_dict['steps']
cur_prompt = apply_template(goal, steps)
cur_len += utils.gpt3_tokenizer(cur_prompt)
prompt += cur_prompt
counter += 1
print(f'Total samples in prompt: {counter}')
print(f'Average tokens per sample: {cur_len / counter}')
return prompt
def build_code_prompt(self, max_len):
train_dict = self.metadata['train']
prompt = ''
cur_len = 0
for event_dict in train_dict.values():
goal = event_dict['goal']
steps = event_dict['steps']
cur_prompt = apply_template(goal, steps)
cur_prompt = [' '.join(lst) for lst in cur_prompt]
for sub_prompt in cur_prompt:
cur_len += utils.gpt3_tokenizer(sub_prompt)
if cur_len + max_len > args.context_size:
break
else:
prompt += sub_prompt + '\n\n'
return prompt
def run_llm(self, prompt, model, temperature=0.7, stop=['\n\n']):
model_name = {
"davinci": "text-davinci-002",
"davinci003": "text-davinci-003",
"davinci-old": "davinci",
"curie": "text-curie-001",
"codex": "code-davinci-002",
"ada": "text-ada-001"
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=temperature,
max_tokens=300,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
def predict(self):
pred_name, gold_name = get_fname()
val_data = self.metadata['test']
max_len = compute_longest_prompt(val_data, self.apply_template)
print(max_len)
if args.prompt == "text":
prompt = self.build_text_prompt(max_len)
elif args.prompt == "code":
if args.style == 'comment':
prompt = open(f'./code-prompts/comment_prefix.py').read()
elif args.style == 'class':
prompt = open(f'./code-prompts/class_prefix.py').read()
else:
prompt = ''
prompt += self.build_code_prompt(max_len)
preds = []
golds = []
for id, example in tqdm(val_data.items(), position=0, leave=False):
goal = example['goal']
steps = example['steps']
if args.prompt == 'text':
cur_prompt = prompt + f'Goal: {goal}\n\n'
for i, step in enumerate(tqdm(steps, position=1, leave=False)):
step_state_changes = step['state_changes']
step_desc = step['description']
cur_prompt += f'Step {i+1}: {step_desc}\n\n'
cur_prompt += f'Entity status changes:\n'
llm_pred = self.run_llm(cur_prompt, args.model, stop='\n\n')
llm_pred = utils.parse_preds(llm_pred)
if len(llm_pred) == 0:
llm_pred.append('There will be no change.')
for line in llm_pred:
# entries = re.match(r'The (.*) is (.*) before and (.*) afterwards.', line)
# print((entries.group(1), entries.group(2), entries.group(3)))
cur_prompt += '- ' + line.strip() + '\n'
cur_prompt += '\n'
preds.append({'id': f'{str(id)}||{str(i+1)}', 'answers': llm_pred})
state_change_lst = []
if step_state_changes:
for state_change in step_state_changes:
entity, attr, pre, post = state_change
state_change_lst.append(f'The {attr.split("|")[0].strip()}) of ({entity.split("|")[0].strip()}) is ({pre.split("|")[0].strip()}) before and ({post.split("|")[0].strip()}) afterwards.')
golds.append({'id': f'{str(id)}||{str(i+1)}', 'answers': state_change_lst})
elif args.prompt == 'code':
cur_template = apply_template(goal, steps)
prompt_template = [lst[0] for lst in cur_template]
cur_gold = [ast.literal_eval(lst[1].strip()) for lst in cur_template]
for i, step_prompt in enumerate(tqdm(prompt_template, position=1, leave=False)):
cur_prompt = prompt + step_prompt
llm_pred = self.run_llm(cur_prompt, args.model, stop='\n\n').strip()
print(llm_pred[-1])
if llm_pred[-1] in ["'", '"']:
llm_pred += ']'
try:
llm_pred = ast.literal_eval(llm_pred)
except:
llm_pred = ','.join(llm_pred.split(',')[:-1]) + ']'
try:
llm_pred = ast.literal_eval(llm_pred)
except:
llm_pred = []
if len(llm_pred) == 0:
llm_pred.append('There will be no change.')
preds.append({'id': f'{str(id)}||{str(i+1)}', 'answers': llm_pred})
golds += [{'id': f'{str(id)}||{str(i+1)}', 'answers': g} for i, g in enumerate(cur_gold)]
with open(f'./result/test_{pred_name}.jsonl', 'w') as f:
for d in preds:
json.dump(d, f)
f.write('\n')
with open(f'./result/test_{gold_name}.jsonl', 'w') as f:
for d in golds:
json.dump(d, f)
f.write('\n')
def apply_text_template(goal, steps, train=True):
prompt = f'Goal: {goal}\n\n'
step_prompts = []
for i, step in enumerate(steps):
cur_prompt = ''
step_state_changes = step['state_changes']
step_desc = step['description']
cur_prompt += f'Step {i+1}: {step_desc}\n\n'
cur_prompt += f'Entity status changes:\n'
if train:
if step_state_changes:
for state_change in step_state_changes:
entity, attr, pre, post = state_change
if '|' in entity:
entity = utils.choose_openpi_options(entity)
if '|' in attr:
attr = utils.choose_openpi_options(attr)
if '|' in pre:
pre = utils.choose_openpi_options(pre)
if '|' in post:
post = utils.choose_openpi_options(post)
cur_prompt += f'- The {attr} of {entity} is {pre} before and {post} afterwards.\n'
# cur_prompt += '\n'
else:
cur_prompt += '- There will be no change.\n'
step_prompts.append(cur_prompt)
if train:
prompt += '\n'.join(step_prompts)
else:
prompt = step_prompts
return prompt + '\n'
def apply_code_template(goal, steps):
with open(f'./code-prompts/{args.style}' + '.py') as f:
template = f.read()
f.close()
contexts = ['start.']
cur_steps = []
cur_states = []
for i, step in enumerate(steps):
step_state_changes = step['state_changes']
if step_state_changes:
for state_change in step_state_changes:
entity, attr, pre, post = state_change
if '|' in entity:
entity = utils.choose_openpi_options(entity)
if '|' in attr:
attr = utils.choose_openpi_options(attr)
if '|' in pre:
pre = utils.choose_openpi_options(pre)
if '|' in post:
post = utils.choose_openpi_options(post)
cur_states.append(f'the {attr} of {entity} is {pre} before and {post} afterwards.')
# cur_prompt += '\n'
else:
cur_states.append('there will be no change.\n')
cur_steps.append(step['description'])
contexts.append(contexts[-1] + ' ' + cur_steps[-1].lower())
all_prompts = []
for context, cur_step in zip(contexts, cur_steps):
ret = []
for t in template.split('$'):
ret.append(t.replace("{goal}", goal).replace("{context}", context).replace("{current_step}", cur_step).replace("{answer}", str(cur_states)))
all_prompts.append(ret)
return all_prompts
def compute_longest_prompt(val_data, apply_template):
max_len = 0
for key, val in tqdm(val_data.items()):
goal = val['goal']
steps = val['steps']
cur_prompt = apply_template(goal, steps)
if args.prompt == 'code':
cur_prompt = [' '.join(lst) for lst in cur_prompt]
for sub_prompt in cur_prompt:
cur_len = utils.gpt3_tokenizer(sub_prompt + '\n\nAnswer:')
if cur_len > max_len:
max_len = cur_len
else:
cur_len = utils.gpt3_tokenizer(cur_prompt + '\n\nAnswer:')
if cur_len > max_len:
max_len = cur_len
return max_len
def get_fname():
if not args.style:
pred_name = f'{args.prompt}_{args.model}_pred_{args.context_size}_{args.seed}'
else:
pred_name = f'{args.prompt}_{args.style}_{args.model}_pred_{args.context_size}'
if not args.style:
gold_name = f'{args.prompt}_{args.model}_gold_{args.context_size}_{args.seed}'
else:
gold_name = f'{args.prompt}_{args.style}_{args.model}_gold_{args.context_size}'
return pred_name, gold_name
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', type=str, help='Either text or code.')
parser.add_argument('--model', type=str, help='Either davinci, curie or codex.')
parser.add_argument('--data_path', type=str, help='Path to the folder that stores parsed OpenPI datasets.')
parser.add_argument('--style', type=str, help='choose style of code prompt from one of ["vanilla", "good_var_name", "with_comments", "class_obj"]')
parser.add_argument('--context_size', type=int, help='token threshold for GPT3 context prompt.')
parser.add_argument('--completion_size', type=int, help='token threshold for GPT3 completion.')
parser.add_argument('--seed', type=int, default=None, help='random seed')
#parser.add_argument('--dataset', type=str, help='Name of the datasset')
#parser.add_argument('--xxx', action='store_true', help='')
parser.add_argument('--key', type=str, help='The name of the OpenAI API key file.')
if __name__ == '__main__':
args = parser.parse_args()
if args.seed:
random.seed(args.seed)
np.random.seed(args.seed)
openai.api_key_path = f'../../_private/{args.key}.key'
data_name = 'anli'
NUM_EXAMPLES_IN_PROMPT = 2
meta_data = utils.load_meta_data(args.data_path)
if args.prompt == "text":
apply_template = apply_text_template
elif args.prompt == "code":
apply_template = apply_code_template
inference_model = OpenPI(meta_data, apply_template)
inference_model.predict()
| [
"./code-prompts/comment_prefix.py",
"\n",
"[]",
"PLACEHOLDER\n\n",
"- The PLACEHOLDER of PLACEHOLDER is PLACEHOLDER before and PLACEHOLDER afterwards.\n",
"PLACEHOLDERPLACEHOLDER",
"PLACEHOLDERGoal: PLACEHOLDER\n\n",
"./code-prompts/class_prefix.py",
"['P L A C E H O L D E R']",
"Goal: PLACEHOLDER\n\n",
"Entity status changes:\n",
"- ",
"2",
"- There will be no change.\n",
"['P']"
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~HellaSWAG~hellaswag.py | import argparse
import openai
from datasets import load_dataset
import random
random.seed(29)
from promptsource.templates import DatasetTemplates
import time
from sklearn.metrics import accuracy_score
import pickle
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("gpt2")
import backoff
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', default='text', type=str, help='Either text or code.')
parser.add_argument('--model', default='codex', type=str, help='Either davinci, curie or codex.')
parser.add_argument('--max_prompt', type=int, default=4000, help='Maximum number of tokens in the prompt.')
parser.add_argument('--key', default='harry', type=str, help='The name of the OpenAI API key file.')
parser.add_argument('--seed', default='', type=str, help='Random seed.')
args = parser.parse_args()
openai.api_key = open(f'../../_private/{args.key}.key').read()
if args.seed:
random.seed(int(args.seed[1:]))
SELECTED_PROMPT_NAME = "how_ends"
template = DatasetTemplates('hellaswag')[SELECTED_PROMPT_NAME]
dataset = load_dataset("hellaswag")
def apply_code_template(example):
with open(args.prompt + '.py') as f:
template = f.read()
ret = []
for t in template.split('$'):
ret.append(t.replace("{ctx}", example["ctx"]).replace("{ending0}", example["endings"][0]).replace("{ending1}", example["endings"][1]).replace("{ending2}", example["endings"][2]).replace("{ending3}", example["endings"][3]).replace("{label}", example["label"]))
return ret
if args.prompt == "text":
apply_template = template.apply
elif args.prompt.startswith("code"):
apply_template = apply_code_template
def predict():
# Build prompt
def build_text_prompt(example):
inference_input_text = apply_template(example)[0]
text_prompt = ""
prev_prompt = ""
example_indices = random.sample(range(len(dataset['train'])), 100)
for example_index in example_indices:
if len(tokenizer(text_prompt + inference_input_text + '\n\nAnswer: Ending')['input_ids']) > args.max_prompt - 20:
break
example = dataset['train'][example_index]
input_text, output_text = apply_template(example)
prev_prompt = text_prompt
text_prompt += input_text + '\n\nAnswer: ' + output_text + '\n\n\n'
return(prev_prompt + inference_input_text + '\n\nAnswer: Ending')
def build_code_prompt(example):
inference_input_text = apply_template(example)[0]
text_prompt = ""
prev_prompt = ""
example_indices = random.sample(range(len(dataset['train'])), 100)
for example_index in example_indices:
if len(tokenizer(text_prompt + inference_input_text)['input_ids']) > args.max_prompt:
break
example = dataset['train'][example_index]
input_text, output_text = apply_template(example)
prev_prompt = text_prompt
text_prompt += input_text + output_text + '\n\n\n'
return(prev_prompt + inference_input_text)
@backoff.on_exception(backoff.expo, openai.error.RateLimitError)
def run_llm(prompt, model, temperature=0, stop=['\n']):
model_name = {
"davinci": "text-davinci-002",
"davinci003": "text-davinci-003",
"old_davinci": "davinci",
"curie": "text-curie-001",
"ada": "text-ada-001",
"codex": "code-davinci-002",
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=temperature,
max_tokens=2,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
preds = []
golds = []
#print("Total examples: ", len(dataset['test']))
count = 0
with open("sampled_1000_indices.pkl", "rb") as f:
indices = pickle.load(f)
for index in indices:
example = dataset['validation'][index]
count += 1
print(count)
if args.prompt == "text":
prompt = build_text_prompt(example)
elif "code" in args.prompt:
prompt = build_code_prompt(example)
#print(prompt)
#print(len(tokenizer(prompt)['input_ids']))
pred = run_llm(prompt, args.model)
if args.prompt == "text":
pred = str(int(pred) - 1)
#print(pred)
#raise SystemExit()
gold = str(int(example['label']))
preds.append(pred)
golds.append(gold)
with open(f'pred_{args.model}_{args.prompt}_{args.max_prompt}{args.seed}.txt', 'w') as f:
f.writelines([x + '\n' for x in preds])
with open('gold.txt', 'w') as f:
f.writelines([x + '\n' for x in golds])
def evaluate():
with open(f'pred_{args.model}_{args.prompt}_{args.max_prompt}{args.seed}.txt', 'r') as f:
preds = [x.strip() for x in f.readlines()]
with open('gold.txt', 'r') as f:
golds = [x.strip() for x in f.readlines()]
print("Accuracy", accuracy_score(golds, preds))
return "Accuracy", accuracy_score(golds, preds)
if __name__ == "__main__":
predict()
evaluate() | [
"PLACEHOLDER\n\nAnswer: PLACEHOLDER\n\n\n",
"PLACEHOLDERPLACEHOLDER\n\n\n",
"how_ends"
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~yelp~yelp.py | import argparse
import openai
from datasets import load_dataset
import random
random.seed(29)
from promptsource.templates import DatasetTemplates
import time
from sklearn.metrics import accuracy_score
import pickle
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("gpt2")
from scipy.stats import pearsonr
import backoff
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', default='text', type=str, help='Either text or code.')
parser.add_argument('--model', default='codex', type=str, help='Either davinci, curie or codex.')
parser.add_argument('--max_prompt', type=int, default=4000, help='Maximum number of tokens in the prompt.')
parser.add_argument('--key', default='harry', type=str, help='The name of the OpenAI API key file.')
parser.add_argument('--seed', default='', type=str, help='Random seed.')
args = parser.parse_args()
openai.api_key = open(f'../../_private/{args.key}.key').read()
if args.seed:
args.seed = '_' + args.seed
random.seed(int(args.seed[1:]))
SELECTED_PROMPT_NAME = "based_on_that"
template = DatasetTemplates('yelp_review_full')[SELECTED_PROMPT_NAME]
dataset = load_dataset("yelp_review_full")
def apply_code_template(example):
with open(args.prompt + '.py') as f:
template = f.read()
ret = []
for t in template.split('$'):
ret.append(t.replace("{text}", example["text"]).replace("{label}", str(example["label"])))
return ret
if args.prompt == "text":
apply_template = template.apply
elif args.prompt.startswith("code"):
apply_template = apply_code_template
def predict():
# Build prompt
def build_text_prompt(example):
inference_input_text = apply_template(example)[0]
text_prompt = ""
prev_prompt = ""
example_indices = random.sample(range(len(dataset['train'])), 100)
for example_index in example_indices:
if len(tokenizer(text_prompt + inference_input_text)['input_ids']) > args.max_prompt - 20:
break
example = dataset['train'][example_index]
input_text, output_text = apply_template(example)
prev_prompt = text_prompt
text_prompt += input_text + ' ' + output_text + '.\n\n'
return(prev_prompt + inference_input_text)
def build_code_prompt(example):
inference_input_text = apply_template(example)[0]
text_prompt = ""
prev_prompt = ""
example_indices = random.sample(range(len(dataset['train'])), 100)
for example_index in example_indices:
if len(tokenizer(text_prompt + inference_input_text)['input_ids']) > args.max_prompt:
break
example = dataset['train'][example_index]
input_text, output_text = apply_template(example)
prev_prompt = text_prompt
text_prompt += input_text + output_text + '\n\n\n'
return(prev_prompt + inference_input_text)
@backoff.on_exception(backoff.expo, openai.error.RateLimitError)
def run_llm(prompt, model, temperature=0, stop=['\n']):
model_name = {
"davinci": "text-davinci-002",
"davinci003": "text-davinci-003",
"old_davinci": "davinci",
"curie": "text-curie-001",
"ada": "text-ada-001",
"codex": "code-davinci-002",
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=temperature,
max_tokens=5,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
preds = []
golds = []
print("Total examples: ", len(dataset['test']))
count = 0
#print(len(dataset['test']))
#raise SystemExit
with open("sampled_1000_indices.pkl", "rb") as f:
indices = pickle.load(f)
for index in indices:
example = dataset['test'][index]
#print(example)
#raise SystemExit
count += 1
print(count)
if args.prompt == "text":
prompt = build_text_prompt(example)
elif "code" in args.prompt:
prompt = build_code_prompt(example)
#print(prompt)
#print(len(tokenizer(prompt)['input_ids']))
#raise SystemExit
pred_text = run_llm(prompt, args.model)
pred = pred_text.strip()[0]
gold = example['label']
preds.append(pred)
golds.append(gold)
with open(f'pred_{args.model}_{args.prompt}_{args.max_prompt}{args.seed}.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in preds])
with open('gold.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in golds])
def evaluate():
with open(f'pred_{args.model}_{args.prompt}_{args.max_prompt}{args.seed}.txt', 'r') as f:
preds = [int(l.strip()) for l in f.readlines()]
with open('gold.txt', 'r') as f:
golds = [int(l.strip()) + 1 for l in f.readlines()]
print("Pearson's R", pearsonr(golds, preds)[0])
return "Pearson's R", pearsonr(golds, preds)[0]
if __name__ == "__main__":
predict()
evaluate() | [
"yelp_review_full",
"PLACEHOLDER PLACEHOLDER.\n\n",
"PLACEHOLDERPLACEHOLDER\n\n\n",
"based_on_that"
] |
2024-01-10 | zharry29/curious_code_prompts | datasets~ANLI~anli.py | import time
import json
import utils
import pickle
import random
import openai
import argparse
import numpy as np
from tqdm import tqdm
from datasets import load_dataset
from sklearn.metrics import accuracy_score
random.seed(29)
class ANLI():
def __init__(self, apply_template, idx):
self.apply_template = apply_template
self.idx = idx
def build_text_prompt(self, max_len):
print('Building prompts...')
text_prompt = ""
total_token = max_len
threshold = args.context_size
tolerance = 0
counter = 0
while total_token < threshold:
example_index = random.sample(range(len(dataset[f'train_r{self.idx}'])), 1)[0]
example = dataset[f'train_r{self.idx}'][example_index]
input_text, output_text = self.apply_template(example)
candidate_prompt = input_text.replace('[', '').replace(']', '') + '\n\nAnswer: ' + output_text.replace('[', '').replace(']', '') + '\n\n\n'
token_count = utils.gpt3_tokenizer(candidate_prompt)
prev_total = total_token
if total_token + token_count < threshold:
text_prompt += candidate_prompt
total_token += token_count
counter += 1
if total_token - prev_total < 10:
tolerance += 1
if tolerance > 1:
break
print(f'Total samples in prompt: {counter}')
print(f'Average tokens per sample: {total_token / counter}')
return text_prompt
def build_code_prompt(self, max_len, prompt):
if prompt:
code_prompt = prompt
total_token = utils.gpt3_tokenizer(prompt)
else:
code_prompt = ""
total_token = max_len
threshold = args.context_size
tolerance = 0
while total_token < threshold:
example_index = random.sample(range(len(dataset[f'train_r{self.idx}'])), 1)
example = dataset[f'train_r{self.idx}'][example_index]
input_text, output_text = self.apply_template(example)
candidate_prompt = input_text + output_text + '\n\n'
token_count = utils.gpt3_tokenizer(candidate_prompt)
prev_total = total_token
if total_token + token_count < threshold:
code_prompt += candidate_prompt
total_token += token_count
if total_token - prev_total < 10:
tolerance += 1
if tolerance > 1:
break
return code_prompt
def run_llm(self, prompt, model, max_tokens, temperature=0, stop=['\n']):
model_name = {
"davinci": "text-davinci-002",
"davinci-old": "davinci",
"davinci003": "text-davinci-003",
"curie": "text-curie-001",
"codex": "code-davinci-002",
"ada": "text-ada-001",
}
while True:
try:
ret = openai.Completion.create(
engine=model_name[model],
prompt=prompt,
temperature=temperature,
max_tokens=max_tokens,
top_p=1,
frequency_penalty=0,
presence_penalty=0,
stop=stop
)
break
except Exception as e:
print(e)
print("Retrying in 10 seconds")
time.sleep(10)
gen_text = ret["choices"][0]["text"].strip()#.split('\n')[0]
return gen_text
def parse_pred(self, pred):
if pred.strip().lower() == 'true':
return 0
elif pred.strip().lower() == 'neither':
return 1
elif pred.strip().lower() == 'false':
return 2
else:
return -1
def predict(self, val_idx=None):
val_data = dataset[f'dev_r{self.idx}']
if not val_idx:
val_idx = np.random.choice(np.arange(len(val_data)), 333, replace=False)
max_len = compute_longest_prompt(val_idx, val_data, self.apply_template)
if args.prompt == "text":
prompt = self.build_text_prompt(max_len)
elif args.prompt == "code":
if args.style == 'comment':
prompt = open('./code-prompts/comment_prefix.py').read()
prompt = self.build_code_prompt(max_len, prompt)
elif args.style == 'class':
prompt = open('./code-prompts/class_prefix.py').read()
prompt = self.build_code_prompt(max_len, prompt)
else:
prompt = None
prompt = self.build_code_prompt(max_len, prompt)
preds = []
golds = []
for idx in tqdm(val_idx):
example = val_data[int(idx)]
input_text, output_text = self.apply_template(example)
if args.prompt == 'text':
pred = self.run_llm(prompt + input_text + '\n\nAnswer:', args.model, args.completion_size)
elif args.prompt == 'code':
pred = self.run_llm(prompt + input_text, args.model, args.completion_size)
pred = self.parse_pred(pred.replace('"', ''))
gold = example['label']
preds.append(pred)
golds.append(gold)
return list(val_idx), preds, golds
def evaluate(self):
pred_name, gold_name = get_fname()
with open(f'./result/{pred_name}.txt', 'r') as f:
preds = [x.strip() for x in f.readlines()]
with open(f'./result/{gold_name}.txt', 'r') as f:
golds = [x.strip() for x in f.readlines()]
print("Accuracy", accuracy_score(golds, preds))
return accuracy_score(golds, preds)
def compute_longest_prompt(val_idx, val_data, apply_template):
max_len = 0
for idx in tqdm(val_idx):
example = val_data[int(idx)]
input_text, output_text = apply_template(example)
cur_len = utils.gpt3_tokenizer(input_text + '\n\nAnswer:')
if cur_len > max_len:
max_len = cur_len
return max_len
def apply_code_template(example):
with open(f'./code-prompts/{args.style}' + '.py') as f:
template = f.read()
ret = []
label_to_text = {'0': "True", '1': "Neither", '2': "False"}
premise = example['premise']
hypothesis = example['hypothesis']
label_idx = example['label']
if type(premise) is list:
premise = premise[0]
if type(hypothesis) is list:
hypothesis = hypothesis[0]
if type(label_idx) is list:
label_idx = label_idx[0]
label_text = label_to_text[str(label_idx)]
for t in template.split('$'):
if hypothesis.strip()[-1] != '.':
hypothesis += '.'
ret.append(t.replace("{premise}", premise).replace("{hypothesis}", hypothesis).replace("{label}", label_text))
return ret
def get_fname():
if not args.style:
pred_name = f'{args.prompt}_{args.model}_pred_{args.context_size}_{args.seed}'
else:
pred_name = f'{args.prompt}_{args.style}_{args.model}_pred_{args.context_size}'
if not args.style:
gold_name = f'{args.prompt}_{args.model}_gold_{args.context_size}_{args.seed}'
else:
gold_name = f'{args.prompt}_{args.style}_{args.model}_gold_{args.context_size}'
return pred_name, gold_name
parser = argparse.ArgumentParser()
parser.add_argument('--prompt', type=str, help='Either text or code.')
parser.add_argument('--model', type=str, help='Either davinci, curie or codex.')
parser.add_argument('--context_size', type=int, help='token threshold for GPT3 context prompt.')
parser.add_argument('--completion_size', type=int, help='token threshold for GPT3 completion.')
parser.add_argument('--style', type=str, default=None, help='choose style of code prompt from one of ["vanilla", "good_var_name", "with_comments", "class_obj"]')
parser.add_argument('--seed', type=int, default=None, help='set seed')
parser.add_argument('--index', type=str, help='file name of the saved indices')
#parser.add_argument('--dataset', type=str, help='Name of the datasset')
#parser.add_argument('--xxx', action='store_true', help='')
parser.add_argument('--key', type=str, help='The name of the OpenAI API key file.')
if __name__ == '__main__':
args = parser.parse_args()
openai.api_key_path = f'../../_private/{args.key}.key'
if args.seed:
random.seed(args.seed)
np.random.seed(args.seed)
data_name = 'anli'
dataset, templates = utils.load_data(data_name)
if args.prompt == "text":
apply_template = templates.apply
elif args.prompt == "code":
apply_template = apply_code_template
if not args.index:
val_idx_dict = []
else:
val_idx_dict = pickle.load(open(f'./indices/{args.index}.pkl', 'rb'))
preds, golds = [], []
for i in range(1, 4):
inference_model = ANLI(apply_template, i)
if args.index:
val_idx = val_idx_dict[i-1]
else:
val_idx = None
val_idx, pred, gold = inference_model.predict(val_idx)
if not args.index:
val_idx_dict.append(val_idx)
preds += pred
golds += gold
pred_name, gold_name = get_fname()
with open(f'./result/{pred_name}.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in preds])
with open(f'./result/{gold_name}.txt', 'w') as f:
f.writelines([str(x) + '\n' for x in golds])
with open(f'./indices/{args.model}_val_idx_{args.context_size}.pkl', 'wb') as f:
pickle.dump(val_idx_dict, f)
f.close()
for i in range(1, 4):
inference_model = ANLI(templates, i)
inference_model.evaluate()
| [
"./code-prompts/comment_prefix.py",
"PLACEHOLDERPLACEHOLDER\n\n",
"None",
"./code-prompts/class_prefix.py",
"\n\n\n",
"\n\nAnswer: "
] |
2024-01-10 | jitingxu1/llama_index | llama_index~evaluation~dataset_generation.py | """Dataset generation from documents"""
from __future__ import annotations
import re
from typing import List, Optional
from llama_index import (
Document,
SummaryIndex,
ServiceContext,
)
from llama_index.llms.openai import OpenAI
from llama_index.prompts.base import BasePromptTemplate, PromptTemplate
from llama_index.schema import BaseNode, NodeWithScore, MetadataMode
from llama_index.indices.postprocessor.node import KeywordNodePostprocessor
DEFAULT_QUESTION_GENERATION_PROMPT = """Context information is below.\n"
"\n---------------------\n{context_str}\n---------------------\n"
"Given the context information and not prior knowledge.\n"
"generate only questions based on the below query.\n"
"{query_str}\n"
"""
def _get_default_service_context() -> ServiceContext:
"""Get default service context."""
llm = OpenAI(temperature=0, model="gpt-3.5-turbo")
service_context = ServiceContext.from_defaults(llm=llm, chunk_size_limit=3000)
return service_context
class DatasetGenerator:
"""Generate dataset (question/ question-answer pairs) \
based on the given documents.
NOTE: this is a beta feature, subject to change!
Args:
nodes (List[Node]): List of nodes. (Optional)
service_context (ServiceContext): Service Context.
num_questions_per_chunk: number of question to be \
generated per chunk. Each document is chunked of size 512 words.
text_question_template: Question generation template.
question_gen_query: Question generation query.
"""
def __init__(
self,
nodes: List[BaseNode],
service_context: Optional[ServiceContext] = None,
num_questions_per_chunk: int = 10,
text_question_template: Optional[BasePromptTemplate] = None,
question_gen_query: Optional[str] = None,
required_keywords: Optional[List[str]] = None,
exclude_keywords: Optional[List[str]] = None,
metadata_mode: MetadataMode = MetadataMode.NONE,
) -> None:
"""Init params."""
if service_context is None:
service_context = _get_default_service_context()
self.service_context = service_context
self.text_question_template = text_question_template or PromptTemplate(
DEFAULT_QUESTION_GENERATION_PROMPT
)
self.question_gen_query = (
question_gen_query
or f"You are a Teacher/ Professor. Your task is to setup \
{num_questions_per_chunk} questions for an upcoming \
quiz/examination. The questions should be diverse in nature \
across the document. Restrict the questions to the \
context information provided."
)
self.nodes = nodes
self._metadata_mode = metadata_mode
@classmethod
def from_documents(
cls,
documents: List[Document],
service_context: Optional[ServiceContext] = None,
num_questions_per_chunk: int = 10,
text_question_template: Optional[BasePromptTemplate] = None,
question_gen_query: Optional[str] = None,
required_keywords: Optional[List[str]] = None,
exclude_keywords: Optional[List[str]] = None,
) -> "DatasetGenerator":
"""Generate dataset from documents."""
if service_context is None:
service_context = _get_default_service_context()
nodes = service_context.node_parser.get_nodes_from_documents(documents)
# use node postprocessor to filter nodes
required_keywords = required_keywords or []
exclude_keywords = exclude_keywords or []
node_postprocessor = KeywordNodePostprocessor(
service_context=service_context,
required_keywords=required_keywords,
exclude_keywords=exclude_keywords,
)
node_with_scores = [NodeWithScore(node=node) for node in nodes]
node_with_scores = node_postprocessor.postprocess_nodes(node_with_scores)
nodes = [node_with_score.node for node_with_score in node_with_scores]
return cls(
nodes=nodes,
service_context=service_context,
num_questions_per_chunk=num_questions_per_chunk,
text_question_template=text_question_template,
question_gen_query=question_gen_query,
)
def _node_question_generator(
self, nodes: List[BaseNode], num: Optional[int] = None
) -> List[str]:
"""Node question generator."""
questions: List[str] = []
for node in nodes:
if num is not None and len(questions) >= num:
break
index = SummaryIndex.from_documents(
[
Document(
text=node.get_content(metadata_mode=self._metadata_mode),
metadata=node.metadata,
)
]
)
query_engine = index.as_query_engine(
service_context=self.service_context,
text_qa_template=self.text_question_template,
use_async=True,
)
response = query_engine.query(
self.question_gen_query,
)
result = str(response).strip().split("\n")
cleaned_questions = [
re.sub(r"^\d+[\).\s]", "", question).strip() for question in result
]
questions.extend(cleaned_questions)
questions = [question for question in questions if question != ""]
if num is not None:
questions = questions[:num]
return questions
def generate_questions_from_nodes(self, num: Optional[int] = None) -> List[str]:
"""Generates questions for each document."""
return self._node_question_generator(self.nodes, num)
| [
"Context information is below.\n\"\n\"\n---------------------\n{context_str}\n---------------------\n\"\n\"Given the context information and not prior knowledge.\n\"\n\"generate only questions based on the below query.\n\"\n\"{query_str}\n\"\n"
] |
2024-01-10 | yamyyao/langchain | libs~experimental~langchain_experimental~comprehend_moderation~pii.py | import asyncio
from typing import Any, Dict, Optional
from langchain_experimental.comprehend_moderation.base_moderation_exceptions import (
ModerationPiiError,
)
class ComprehendPII:
def __init__(
self,
client: Any,
callback: Optional[Any] = None,
unique_id: Optional[str] = None,
chain_id: Optional[str] = None,
) -> None:
self.client = client
self.moderation_beacon = {
"moderation_chain_id": chain_id,
"moderation_type": "PII",
"moderation_status": "LABELS_NOT_FOUND",
}
self.callback = callback
self.unique_id = unique_id
def validate(self, prompt_value: str, config: Any = None) -> str:
redact = config.get("redact")
return (
self._detect_pii(prompt_value=prompt_value, config=config)
if redact
else self._contains_pii(prompt_value=prompt_value, config=config)
)
def _contains_pii(self, prompt_value: str, config: Any = None) -> str:
"""
Checks for Personally Identifiable Information (PII) labels above a
specified threshold. Uses Amazon Comprehend Contains PII Entities API. See -
https://docs.aws.amazon.com/comprehend/latest/APIReference/API_ContainsPiiEntities.html
Args:
prompt_value (str): The input text to be checked for PII labels.
config (Dict[str, Any]): Configuration for PII check and actions.
Returns:
str: the original prompt
Note:
- The provided client should be initialized with valid AWS credentials.
"""
pii_identified = self.client.contains_pii_entities(
Text=prompt_value, LanguageCode="en"
)
if self.callback and self.callback.pii_callback:
self.moderation_beacon["moderation_input"] = prompt_value
self.moderation_beacon["moderation_output"] = pii_identified
threshold = config.get("threshold")
pii_labels = config.get("labels")
pii_found = False
for entity in pii_identified["Labels"]:
if (entity["Score"] >= threshold and entity["Name"] in pii_labels) or (
entity["Score"] >= threshold and not pii_labels
):
pii_found = True
break
if self.callback and self.callback.pii_callback:
if pii_found:
self.moderation_beacon["moderation_status"] = "LABELS_FOUND"
asyncio.create_task(
self.callback.on_after_pii(self.moderation_beacon, self.unique_id)
)
if pii_found:
raise ModerationPiiError
return prompt_value
def _detect_pii(self, prompt_value: str, config: Optional[Dict[str, Any]]) -> str:
"""
Detects and handles Personally Identifiable Information (PII) entities in the
given prompt text using Amazon Comprehend's detect_pii_entities API. The
function provides options to redact or stop processing based on the identified
PII entities and a provided configuration. Uses Amazon Comprehend Detect PII
Entities API.
Args:
prompt_value (str): The input text to be checked for PII entities.
config (Dict[str, Any]): A configuration specifying how to handle
PII entities.
Returns:
str: The processed prompt text with redacted PII entities or raised
exceptions.
Raises:
ValueError: If the prompt contains configured PII entities for
stopping processing.
Note:
- If PII is not found in the prompt, the original prompt is returned.
- The client should be initialized with valid AWS credentials.
"""
pii_identified = self.client.detect_pii_entities(
Text=prompt_value, LanguageCode="en"
)
if self.callback and self.callback.pii_callback:
self.moderation_beacon["moderation_input"] = prompt_value
self.moderation_beacon["moderation_output"] = pii_identified
if (pii_identified["Entities"]) == []:
if self.callback and self.callback.pii_callback:
asyncio.create_task(
self.callback.on_after_pii(self.moderation_beacon, self.unique_id)
)
return prompt_value
pii_found = False
if not config and pii_identified["Entities"]:
for entity in pii_identified["Entities"]:
if entity["Score"] >= 0.5:
pii_found = True
break
if self.callback and self.callback.pii_callback:
if pii_found:
self.moderation_beacon["moderation_status"] = "LABELS_FOUND"
asyncio.create_task(
self.callback.on_after_pii(self.moderation_beacon, self.unique_id)
)
if pii_found:
raise ModerationPiiError
else:
threshold = config.get("threshold") # type: ignore
pii_labels = config.get("labels") # type: ignore
mask_marker = config.get("mask_character") # type: ignore
pii_found = False
for entity in pii_identified["Entities"]:
if (
pii_labels
and entity["Type"] in pii_labels
and entity["Score"] >= threshold
) or (not pii_labels and entity["Score"] >= threshold):
pii_found = True
char_offset_begin = entity["BeginOffset"]
char_offset_end = entity["EndOffset"]
mask_length = char_offset_end - char_offset_begin + 1
masked_part = mask_marker * mask_length
prompt_value = (
prompt_value[:char_offset_begin]
+ masked_part
+ prompt_value[char_offset_end + 1 :]
)
if self.callback and self.callback.pii_callback:
if pii_found:
self.moderation_beacon["moderation_status"] = "LABELS_FOUND"
asyncio.create_task(
self.callback.on_after_pii(self.moderation_beacon, self.unique_id)
)
return prompt_value
| [] |
2024-01-10 | yamyyao/langchain | libs~langchain~langchain~vectorstores~elasticsearch.py | import logging
import uuid
from abc import ABC, abstractmethod
from typing import (
TYPE_CHECKING,
Any,
Callable,
Dict,
Iterable,
List,
Literal,
Optional,
Tuple,
Union,
)
import numpy as np
from langchain.docstore.document import Document
from langchain.schema.embeddings import Embeddings
from langchain.schema.vectorstore import VectorStore
from langchain.vectorstores.utils import DistanceStrategy, maximal_marginal_relevance
if TYPE_CHECKING:
from elasticsearch import Elasticsearch
logger = logging.getLogger(__name__)
class BaseRetrievalStrategy(ABC):
"""Base class for `Elasticsearch` retrieval strategies."""
@abstractmethod
def query(
self,
query_vector: Union[List[float], None],
query: Union[str, None],
*,
k: int,
fetch_k: int,
vector_query_field: str,
text_field: str,
filter: List[dict],
similarity: Union[DistanceStrategy, None],
) -> Dict:
"""
Executes when a search is performed on the store.
Args:
query_vector: The query vector,
or None if not using vector-based query.
query: The text query, or None if not using text-based query.
k: The total number of results to retrieve.
fetch_k: The number of results to fetch initially.
vector_query_field: The field containing the vector
representations in the index.
text_field: The field containing the text data in the index.
filter: List of filter clauses to apply to the query.
similarity: The similarity strategy to use, or None if not using one.
Returns:
Dict: The Elasticsearch query body.
"""
@abstractmethod
def index(
self,
dims_length: Union[int, None],
vector_query_field: str,
similarity: Union[DistanceStrategy, None],
) -> Dict:
"""
Executes when the index is created.
Args:
dims_length: Numeric length of the embedding vectors,
or None if not using vector-based query.
vector_query_field: The field containing the vector
representations in the index.
similarity: The similarity strategy to use,
or None if not using one.
Returns:
Dict: The Elasticsearch settings and mappings for the strategy.
"""
def before_index_setup(
self, client: "Elasticsearch", text_field: str, vector_query_field: str
) -> None:
"""
Executes before the index is created. Used for setting up
any required Elasticsearch resources like a pipeline.
Args:
client: The Elasticsearch client.
text_field: The field containing the text data in the index.
vector_query_field: The field containing the vector
representations in the index.
"""
def require_inference(self) -> bool:
"""
Returns whether or not the strategy requires inference
to be performed on the text before it is added to the index.
Returns:
bool: Whether or not the strategy requires inference
to be performed on the text before it is added to the index.
"""
return True
class ApproxRetrievalStrategy(BaseRetrievalStrategy):
"""Approximate retrieval strategy using the `HNSW` algorithm."""
def __init__(
self,
query_model_id: Optional[str] = None,
hybrid: Optional[bool] = False,
):
self.query_model_id = query_model_id
self.hybrid = hybrid
def query(
self,
query_vector: Union[List[float], None],
query: Union[str, None],
k: int,
fetch_k: int,
vector_query_field: str,
text_field: str,
filter: List[dict],
similarity: Union[DistanceStrategy, None],
) -> Dict:
knn = {
"filter": filter,
"field": vector_query_field,
"k": k,
"num_candidates": fetch_k,
}
# Embedding provided via the embedding function
if query_vector and not self.query_model_id:
knn["query_vector"] = query_vector
# Case 2: Used when model has been deployed to
# Elasticsearch and can infer the query vector from the query text
elif query and self.query_model_id:
knn["query_vector_builder"] = {
"text_embedding": {
"model_id": self.query_model_id, # use 'model_id' argument
"model_text": query, # use 'query' argument
}
}
else:
raise ValueError(
"You must provide an embedding function or a"
" query_model_id to perform a similarity search."
)
# If hybrid, add a query to the knn query
# RRF is used to even the score from the knn query and text query
if self.hybrid:
return {
"knn": knn,
"query": {
"bool": {
"must": [
{
"match": {
text_field: {
"query": query,
}
}
}
],
"filter": filter,
}
},
"rank": {"rrf": {}},
}
else:
return {"knn": knn}
def index(
self,
dims_length: Union[int, None],
vector_query_field: str,
similarity: Union[DistanceStrategy, None],
) -> Dict:
"""Create the mapping for the Elasticsearch index."""
if similarity is DistanceStrategy.COSINE:
similarityAlgo = "cosine"
elif similarity is DistanceStrategy.EUCLIDEAN_DISTANCE:
similarityAlgo = "l2_norm"
elif similarity is DistanceStrategy.DOT_PRODUCT:
similarityAlgo = "dot_product"
else:
raise ValueError(f"Similarity {similarity} not supported.")
return {
"mappings": {
"properties": {
vector_query_field: {
"type": "dense_vector",
"dims": dims_length,
"index": True,
"similarity": similarityAlgo,
},
}
}
}
class ExactRetrievalStrategy(BaseRetrievalStrategy):
"""Exact retrieval strategy using the `script_score` query."""
def query(
self,
query_vector: Union[List[float], None],
query: Union[str, None],
k: int,
fetch_k: int,
vector_query_field: str,
text_field: str,
filter: Union[List[dict], None],
similarity: Union[DistanceStrategy, None],
) -> Dict:
if similarity is DistanceStrategy.COSINE:
similarityAlgo = (
f"cosineSimilarity(params.query_vector, '{vector_query_field}') + 1.0"
)
elif similarity is DistanceStrategy.EUCLIDEAN_DISTANCE:
similarityAlgo = (
f"1 / (1 + l2norm(params.query_vector, '{vector_query_field}'))"
)
elif similarity is DistanceStrategy.DOT_PRODUCT:
similarityAlgo = f"""
double value = dotProduct(params.query_vector, '{vector_query_field}');
return sigmoid(1, Math.E, -value);
"""
else:
raise ValueError(f"Similarity {similarity} not supported.")
queryBool: Dict = {"match_all": {}}
if filter:
queryBool = {"bool": {"filter": filter}}
return {
"query": {
"script_score": {
"query": queryBool,
"script": {
"source": similarityAlgo,
"params": {"query_vector": query_vector},
},
},
}
}
def index(
self,
dims_length: Union[int, None],
vector_query_field: str,
similarity: Union[DistanceStrategy, None],
) -> Dict:
"""Create the mapping for the Elasticsearch index."""
return {
"mappings": {
"properties": {
vector_query_field: {
"type": "dense_vector",
"dims": dims_length,
"index": False,
},
}
}
}
class SparseRetrievalStrategy(BaseRetrievalStrategy):
"""Sparse retrieval strategy using the `text_expansion` processor."""
def __init__(self, model_id: Optional[str] = None):
self.model_id = model_id or ".elser_model_1"
def query(
self,
query_vector: Union[List[float], None],
query: Union[str, None],
k: int,
fetch_k: int,
vector_query_field: str,
text_field: str,
filter: List[dict],
similarity: Union[DistanceStrategy, None],
) -> Dict:
return {
"query": {
"bool": {
"must": [
{
"text_expansion": {
f"{vector_query_field}.tokens": {
"model_id": self.model_id,
"model_text": query,
}
}
}
],
"filter": filter,
}
}
}
def _get_pipeline_name(self) -> str:
return f"{self.model_id}_sparse_embedding"
def before_index_setup(
self, client: "Elasticsearch", text_field: str, vector_query_field: str
) -> None:
# If model_id is provided, create a pipeline for the model
if self.model_id:
client.ingest.put_pipeline(
id=self._get_pipeline_name(),
description="Embedding pipeline for langchain vectorstore",
processors=[
{
"inference": {
"model_id": self.model_id,
"target_field": vector_query_field,
"field_map": {text_field: "text_field"},
"inference_config": {
"text_expansion": {"results_field": "tokens"}
},
}
}
],
)
def index(
self,
dims_length: Union[int, None],
vector_query_field: str,
similarity: Union[DistanceStrategy, None],
) -> Dict:
return {
"mappings": {
"properties": {
vector_query_field: {
"properties": {"tokens": {"type": "rank_features"}}
}
}
},
"settings": {"default_pipeline": self._get_pipeline_name()},
}
def require_inference(self) -> bool:
return False
class ElasticsearchStore(VectorStore):
"""`Elasticsearch` vector store.
Example:
.. code-block:: python
from langchain.vectorstores import ElasticsearchStore
from langchain.embeddings.openai import OpenAIEmbeddings
embeddings = OpenAIEmbeddings()
vectorstore = ElasticsearchStore(
embedding=OpenAIEmbeddings(),
index_name="langchain-demo",
es_url="http://localhost:9200"
)
Args:
index_name: Name of the Elasticsearch index to create.
es_url: URL of the Elasticsearch instance to connect to.
cloud_id: Cloud ID of the Elasticsearch instance to connect to.
es_user: Username to use when connecting to Elasticsearch.
es_password: Password to use when connecting to Elasticsearch.
es_api_key: API key to use when connecting to Elasticsearch.
es_connection: Optional pre-existing Elasticsearch connection.
vector_query_field: Optional. Name of the field to store
the embedding vectors in.
query_field: Optional. Name of the field to store the texts in.
strategy: Optional. Retrieval strategy to use when searching the index.
Defaults to ApproxRetrievalStrategy. Can be one of
ExactRetrievalStrategy, ApproxRetrievalStrategy,
or SparseRetrievalStrategy.
distance_strategy: Optional. Distance strategy to use when
searching the index.
Defaults to COSINE. Can be one of COSINE,
EUCLIDEAN_DISTANCE, or DOT_PRODUCT.
If you want to use a cloud hosted Elasticsearch instance, you can pass in the
cloud_id argument instead of the es_url argument.
Example:
.. code-block:: python
from langchain.vectorstores import ElasticsearchStore
from langchain.embeddings.openai import OpenAIEmbeddings
vectorstore = ElasticsearchStore(
embedding=OpenAIEmbeddings(),
index_name="langchain-demo",
es_cloud_id="<cloud_id>"
es_user="elastic",
es_password="<password>"
)
You can also connect to an existing Elasticsearch instance by passing in a
pre-existing Elasticsearch connection via the es_connection argument.
Example:
.. code-block:: python
from langchain.vectorstores import ElasticsearchStore
from langchain.embeddings.openai import OpenAIEmbeddings
from elasticsearch import Elasticsearch
es_connection = Elasticsearch("http://localhost:9200")
vectorstore = ElasticsearchStore(
embedding=OpenAIEmbeddings(),
index_name="langchain-demo",
es_connection=es_connection
)
ElasticsearchStore by default uses the ApproxRetrievalStrategy, which uses the
HNSW algorithm to perform approximate nearest neighbor search. This is the
fastest and most memory efficient algorithm.
If you want to use the Brute force / Exact strategy for searching vectors, you
can pass in the ExactRetrievalStrategy to the ElasticsearchStore constructor.
Example:
.. code-block:: python
from langchain.vectorstores import ElasticsearchStore
from langchain.embeddings.openai import OpenAIEmbeddings
vectorstore = ElasticsearchStore(
embedding=OpenAIEmbeddings(),
index_name="langchain-demo",
es_url="http://localhost:9200",
strategy=ElasticsearchStore.ExactRetrievalStrategy()
)
Both strategies require that you know the similarity metric you want to use
when creating the index. The default is cosine similarity, but you can also
use dot product or euclidean distance.
Example:
.. code-block:: python
from langchain.vectorstores import ElasticsearchStore
from langchain.embeddings.openai import OpenAIEmbeddings
from langchain.vectorstores.utils import DistanceStrategy
vectorstore = ElasticsearchStore(
embedding=OpenAIEmbeddings(),
index_name="langchain-demo",
es_url="http://localhost:9200",
distance_strategy="DOT_PRODUCT"
)
"""
def __init__(
self,
index_name: str,
*,
embedding: Optional[Embeddings] = None,
es_connection: Optional["Elasticsearch"] = None,
es_url: Optional[str] = None,
es_cloud_id: Optional[str] = None,
es_user: Optional[str] = None,
es_api_key: Optional[str] = None,
es_password: Optional[str] = None,
vector_query_field: str = "vector",
query_field: str = "text",
distance_strategy: Optional[
Literal[
DistanceStrategy.COSINE,
DistanceStrategy.DOT_PRODUCT,
DistanceStrategy.EUCLIDEAN_DISTANCE,
]
] = None,
strategy: BaseRetrievalStrategy = ApproxRetrievalStrategy(),
):
self.embedding = embedding
self.index_name = index_name
self.query_field = query_field
self.vector_query_field = vector_query_field
self.distance_strategy = (
DistanceStrategy.COSINE
if distance_strategy is None
else DistanceStrategy[distance_strategy]
)
self.strategy = strategy
if es_connection is not None:
self.client = es_connection.options(
headers={"user-agent": self.get_user_agent()}
)
elif es_url is not None or es_cloud_id is not None:
self.client = ElasticsearchStore.connect_to_elasticsearch(
es_url=es_url,
username=es_user,
password=es_password,
cloud_id=es_cloud_id,
api_key=es_api_key,
)
else:
raise ValueError(
"""Either provide a pre-existing Elasticsearch connection, \
or valid credentials for creating a new connection."""
)
@staticmethod
def get_user_agent() -> str:
from langchain import __version__
return f"langchain-py-vs/{__version__}"
@staticmethod
def connect_to_elasticsearch(
*,
es_url: Optional[str] = None,
cloud_id: Optional[str] = None,
api_key: Optional[str] = None,
username: Optional[str] = None,
password: Optional[str] = None,
) -> "Elasticsearch":
try:
import elasticsearch
except ImportError:
raise ImportError(
"Could not import elasticsearch python package. "
"Please install it with `pip install elasticsearch`."
)
if es_url and cloud_id:
raise ValueError(
"Both es_url and cloud_id are defined. Please provide only one."
)
connection_params: Dict[str, Any] = {}
if es_url:
connection_params["hosts"] = [es_url]
elif cloud_id:
connection_params["cloud_id"] = cloud_id
else:
raise ValueError("Please provide either elasticsearch_url or cloud_id.")
if api_key:
connection_params["api_key"] = api_key
elif username and password:
connection_params["basic_auth"] = (username, password)
es_client = elasticsearch.Elasticsearch(
**connection_params,
headers={"user-agent": ElasticsearchStore.get_user_agent()},
)
try:
es_client.info()
except Exception as e:
logger.error(f"Error connecting to Elasticsearch: {e}")
raise e
return es_client
@property
def embeddings(self) -> Optional[Embeddings]:
return self.embedding
def similarity_search(
self,
query: str,
k: int = 4,
filter: Optional[List[dict]] = None,
**kwargs: Any,
) -> List[Document]:
"""Return Elasticsearch documents most similar to query.
Args:
query: Text to look up documents similar to.
k: Number of Documents to return. Defaults to 4.
filter: Array of Elasticsearch filter clauses to apply to the query.
Returns:
List of Documents most similar to the query,
in descending order of similarity.
"""
results = self._search(query=query, k=k, filter=filter, **kwargs)
return [doc for doc, _ in results]
def max_marginal_relevance_search(
self,
query: str,
k: int = 4,
fetch_k: int = 20,
lambda_mult: float = 0.5,
fields: Optional[List[str]] = None,
**kwargs: Any,
) -> List[Document]:
"""Return docs selected using the maximal marginal relevance.
Maximal marginal relevance optimizes for similarity to query AND diversity
among selected documents.
Args:
query (str): Text to look up documents similar to.
k (int): Number of Documents to return. Defaults to 4.
fetch_k (int): Number of Documents to fetch to pass to MMR algorithm.
lambda_mult (float): Number between 0 and 1 that determines the degree
of diversity among the results with 0 corresponding
to maximum diversity and 1 to minimum diversity.
Defaults to 0.5.
fields: Other fields to get from elasticsearch source. These fields
will be added to the document metadata.
Returns:
List[Document]: A list of Documents selected by maximal marginal relevance.
"""
if self.embedding is None:
raise ValueError("You must provide an embedding function to perform MMR")
remove_vector_query_field_from_metadata = True
if fields is None:
fields = [self.vector_query_field]
elif self.vector_query_field not in fields:
fields.append(self.vector_query_field)
else:
remove_vector_query_field_from_metadata = False
# Embed the query
query_embedding = self.embedding.embed_query(query)
# Fetch the initial documents
got_docs = self._search(
query_vector=query_embedding, k=fetch_k, fields=fields, **kwargs
)
# Get the embeddings for the fetched documents
got_embeddings = [doc.metadata[self.vector_query_field] for doc, _ in got_docs]
# Select documents using maximal marginal relevance
selected_indices = maximal_marginal_relevance(
np.array(query_embedding), got_embeddings, lambda_mult=lambda_mult, k=k
)
selected_docs = [got_docs[i][0] for i in selected_indices]
if remove_vector_query_field_from_metadata:
for doc in selected_docs:
del doc.metadata["vector"]
return selected_docs
def similarity_search_with_score(
self, query: str, k: int = 4, filter: Optional[List[dict]] = None, **kwargs: Any
) -> List[Tuple[Document, float]]:
"""Return Elasticsearch documents most similar to query, along with scores.
Args:
query: Text to look up documents similar to.
k: Number of Documents to return. Defaults to 4.
filter: Array of Elasticsearch filter clauses to apply to the query.
Returns:
List of Documents most similar to the query and score for each
"""
return self._search(query=query, k=k, filter=filter, **kwargs)
def similarity_search_by_vector_with_relevance_scores(
self,
embedding: List[float],
k: int = 4,
filter: Optional[List[Dict]] = None,
**kwargs: Any,
) -> List[Tuple[Document, float]]:
"""Return Elasticsearch documents most similar to query, along with scores.
Args:
embedding: Embedding to look up documents similar to.
k: Number of Documents to return. Defaults to 4.
filter: Array of Elasticsearch filter clauses to apply to the query.
Returns:
List of Documents most similar to the embedding and score for each
"""
return self._search(query_vector=embedding, k=k, filter=filter, **kwargs)
def _search(
self,
query: Optional[str] = None,
k: int = 4,
query_vector: Union[List[float], None] = None,
fetch_k: int = 50,
fields: Optional[List[str]] = None,
filter: Optional[List[dict]] = None,
custom_query: Optional[Callable[[Dict, Union[str, None]], Dict]] = None,
) -> List[Tuple[Document, float]]:
"""Return Elasticsearch documents most similar to query, along with scores.
Args:
query: Text to look up documents similar to.
k: Number of Documents to return. Defaults to 4.
query_vector: Embedding to look up documents similar to.
fetch_k: Number of candidates to fetch from each shard.
Defaults to 50.
fields: List of fields to return from Elasticsearch.
Defaults to only returning the text field.
filter: Array of Elasticsearch filter clauses to apply to the query.
custom_query: Function to modify the Elasticsearch
query body before it is sent to Elasticsearch.
Returns:
List of Documents most similar to the query and score for each
"""
if fields is None:
fields = []
if "metadata" not in fields:
fields.append("metadata")
if self.query_field not in fields:
fields.append(self.query_field)
if self.embedding and query is not None:
query_vector = self.embedding.embed_query(query)
query_body = self.strategy.query(
query_vector=query_vector,
query=query,
k=k,
fetch_k=fetch_k,
vector_query_field=self.vector_query_field,
text_field=self.query_field,
filter=filter or [],
similarity=self.distance_strategy,
)
logger.debug(f"Query body: {query_body}")
if custom_query is not None:
query_body = custom_query(query_body, query)
logger.debug(f"Calling custom_query, Query body now: {query_body}")
# Perform the kNN search on the Elasticsearch index and return the results.
response = self.client.search(
index=self.index_name,
**query_body,
size=k,
source=fields,
)
docs_and_scores = []
for hit in response["hits"]["hits"]:
for field in fields:
if field in hit["_source"] and field not in [
"metadata",
self.query_field,
]:
hit["_source"]["metadata"][field] = hit["_source"][field]
docs_and_scores.append(
(
Document(
page_content=hit["_source"].get(self.query_field, ""),
metadata=hit["_source"]["metadata"],
),
hit["_score"],
)
)
return docs_and_scores
def delete(
self,
ids: Optional[List[str]] = None,
refresh_indices: Optional[bool] = True,
**kwargs: Any,
) -> Optional[bool]:
"""Delete documents from the Elasticsearch index.
Args:
ids: List of ids of documents to delete.
refresh_indices: Whether to refresh the index
after deleting documents. Defaults to True.
"""
try:
from elasticsearch.helpers import BulkIndexError, bulk
except ImportError:
raise ImportError(
"Could not import elasticsearch python package. "
"Please install it with `pip install elasticsearch`."
)
body = []
if ids is None:
raise ValueError("ids must be provided.")
for _id in ids:
body.append({"_op_type": "delete", "_index": self.index_name, "_id": _id})
if len(body) > 0:
try:
bulk(self.client, body, refresh=refresh_indices, ignore_status=404)
logger.debug(f"Deleted {len(body)} texts from index")
return True
except BulkIndexError as e:
logger.error(f"Error deleting texts: {e}")
firstError = e.errors[0].get("index", {}).get("error", {})
logger.error(f"First error reason: {firstError.get('reason')}")
raise e
else:
logger.debug("No texts to delete from index")
return False
def _create_index_if_not_exists(
self, index_name: str, dims_length: Optional[int] = None
) -> None:
"""Create the Elasticsearch index if it doesn't already exist.
Args:
index_name: Name of the Elasticsearch index to create.
dims_length: Length of the embedding vectors.
"""
if self.client.indices.exists(index=index_name):
logger.debug(f"Index {index_name} already exists. Skipping creation.")
else:
if dims_length is None and self.strategy.require_inference():
raise ValueError(
"Cannot create index without specifying dims_length "
"when the index doesn't already exist. We infer "
"dims_length from the first embedding. Check that "
"you have provided an embedding function."
)
self.strategy.before_index_setup(
client=self.client,
text_field=self.query_field,
vector_query_field=self.vector_query_field,
)
indexSettings = self.strategy.index(
vector_query_field=self.vector_query_field,
dims_length=dims_length,
similarity=self.distance_strategy,
)
logger.debug(
f"Creating index {index_name} with mappings {indexSettings['mappings']}"
)
self.client.indices.create(index=index_name, **indexSettings)
def add_texts(
self,
texts: Iterable[str],
metadatas: Optional[List[Dict[Any, Any]]] = None,
ids: Optional[List[str]] = None,
refresh_indices: bool = True,
create_index_if_not_exists: bool = True,
bulk_kwargs: Optional[Dict] = None,
**kwargs: Any,
) -> List[str]:
"""Run more texts through the embeddings and add to the vectorstore.
Args:
texts: Iterable of strings to add to the vectorstore.
metadatas: Optional list of metadatas associated with the texts.
ids: Optional list of ids to associate with the texts.
refresh_indices: Whether to refresh the Elasticsearch indices
after adding the texts.
create_index_if_not_exists: Whether to create the Elasticsearch
index if it doesn't already exist.
*bulk_kwargs: Additional arguments to pass to Elasticsearch bulk.
- chunk_size: Optional. Number of texts to add to the
index at a time. Defaults to 500.
Returns:
List of ids from adding the texts into the vectorstore.
"""
try:
from elasticsearch.helpers import BulkIndexError, bulk
except ImportError:
raise ImportError(
"Could not import elasticsearch python package. "
"Please install it with `pip install elasticsearch`."
)
bulk_kwargs = bulk_kwargs or {}
embeddings = []
ids = ids or [str(uuid.uuid4()) for _ in texts]
requests = []
if self.embedding is not None:
# If no search_type requires inference, we use the provided
# embedding function to embed the texts.
embeddings = self.embedding.embed_documents(list(texts))
dims_length = len(embeddings[0])
if create_index_if_not_exists:
self._create_index_if_not_exists(
index_name=self.index_name, dims_length=dims_length
)
for i, (text, vector) in enumerate(zip(texts, embeddings)):
metadata = metadatas[i] if metadatas else {}
requests.append(
{
"_op_type": "index",
"_index": self.index_name,
self.query_field: text,
self.vector_query_field: vector,
"metadata": metadata,
"_id": ids[i],
}
)
else:
# the search_type doesn't require inference, so we don't need to
# embed the texts.
if create_index_if_not_exists:
self._create_index_if_not_exists(index_name=self.index_name)
for i, text in enumerate(texts):
metadata = metadatas[i] if metadatas else {}
requests.append(
{
"_op_type": "index",
"_index": self.index_name,
self.query_field: text,
"metadata": metadata,
"_id": ids[i],
}
)
if len(requests) > 0:
try:
success, failed = bulk(
self.client,
requests,
stats_only=True,
refresh=refresh_indices,
**bulk_kwargs,
)
logger.debug(
f"Added {success} and failed to add {failed} texts to index"
)
logger.debug(f"added texts {ids} to index")
return ids
except BulkIndexError as e:
logger.error(f"Error adding texts: {e}")
firstError = e.errors[0].get("index", {}).get("error", {})
logger.error(f"First error reason: {firstError.get('reason')}")
raise e
else:
logger.debug("No texts to add to index")
return []
@classmethod
def from_texts(
cls,
texts: List[str],
embedding: Optional[Embeddings] = None,
metadatas: Optional[List[Dict[str, Any]]] = None,
bulk_kwargs: Optional[Dict] = None,
**kwargs: Any,
) -> "ElasticsearchStore":
"""Construct ElasticsearchStore wrapper from raw documents.
Example:
.. code-block:: python
from langchain.vectorstores import ElasticsearchStore
from langchain.embeddings.openai import OpenAIEmbeddings
db = ElasticsearchStore.from_texts(
texts,
// embeddings optional if using
// a strategy that doesn't require inference
embeddings,
index_name="langchain-demo",
es_url="http://localhost:9200"
)
Args:
texts: List of texts to add to the Elasticsearch index.
embedding: Embedding function to use to embed the texts.
metadatas: Optional list of metadatas associated with the texts.
index_name: Name of the Elasticsearch index to create.
es_url: URL of the Elasticsearch instance to connect to.
cloud_id: Cloud ID of the Elasticsearch instance to connect to.
es_user: Username to use when connecting to Elasticsearch.
es_password: Password to use when connecting to Elasticsearch.
es_api_key: API key to use when connecting to Elasticsearch.
es_connection: Optional pre-existing Elasticsearch connection.
vector_query_field: Optional. Name of the field to
store the embedding vectors in.
query_field: Optional. Name of the field to store the texts in.
distance_strategy: Optional. Name of the distance
strategy to use. Defaults to "COSINE".
can be one of "COSINE",
"EUCLIDEAN_DISTANCE", "DOT_PRODUCT".
bulk_kwargs: Optional. Additional arguments to pass to
Elasticsearch bulk.
"""
elasticsearchStore = ElasticsearchStore._create_cls_from_kwargs(
embedding=embedding, **kwargs
)
# Encode the provided texts and add them to the newly created index.
elasticsearchStore.add_texts(
texts, metadatas=metadatas, bulk_kwargs=bulk_kwargs
)
return elasticsearchStore
@staticmethod
def _create_cls_from_kwargs(
embedding: Optional[Embeddings] = None, **kwargs: Any
) -> "ElasticsearchStore":
index_name = kwargs.get("index_name")
if index_name is None:
raise ValueError("Please provide an index_name.")
es_connection = kwargs.get("es_connection")
es_cloud_id = kwargs.get("es_cloud_id")
es_url = kwargs.get("es_url")
es_user = kwargs.get("es_user")
es_password = kwargs.get("es_password")
es_api_key = kwargs.get("es_api_key")
vector_query_field = kwargs.get("vector_query_field")
query_field = kwargs.get("query_field")
distance_strategy = kwargs.get("distance_strategy")
strategy = kwargs.get("strategy", ElasticsearchStore.ApproxRetrievalStrategy())
optional_args = {}
if vector_query_field is not None:
optional_args["vector_query_field"] = vector_query_field
if query_field is not None:
optional_args["query_field"] = query_field
return ElasticsearchStore(
index_name=index_name,
embedding=embedding,
es_url=es_url,
es_connection=es_connection,
es_cloud_id=es_cloud_id,
es_user=es_user,
es_password=es_password,
es_api_key=es_api_key,
strategy=strategy,
distance_strategy=distance_strategy,
**optional_args,
)
@classmethod
def from_documents(
cls,
documents: List[Document],
embedding: Optional[Embeddings] = None,
bulk_kwargs: Optional[Dict] = None,
**kwargs: Any,
) -> "ElasticsearchStore":
"""Construct ElasticsearchStore wrapper from documents.
Example:
.. code-block:: python
from langchain.vectorstores import ElasticsearchStore
from langchain.embeddings.openai import OpenAIEmbeddings
db = ElasticsearchStore.from_documents(
texts,
embeddings,
index_name="langchain-demo",
es_url="http://localhost:9200"
)
Args:
texts: List of texts to add to the Elasticsearch index.
embedding: Embedding function to use to embed the texts.
Do not provide if using a strategy
that doesn't require inference.
metadatas: Optional list of metadatas associated with the texts.
index_name: Name of the Elasticsearch index to create.
es_url: URL of the Elasticsearch instance to connect to.
cloud_id: Cloud ID of the Elasticsearch instance to connect to.
es_user: Username to use when connecting to Elasticsearch.
es_password: Password to use when connecting to Elasticsearch.
es_api_key: API key to use when connecting to Elasticsearch.
es_connection: Optional pre-existing Elasticsearch connection.
vector_query_field: Optional. Name of the field
to store the embedding vectors in.
query_field: Optional. Name of the field to store the texts in.
bulk_kwargs: Optional. Additional arguments to pass to
Elasticsearch bulk.
"""
elasticsearchStore = ElasticsearchStore._create_cls_from_kwargs(
embedding=embedding, **kwargs
)
# Encode the provided texts and add them to the newly created index.
elasticsearchStore.add_documents(documents, bulk_kwargs=bulk_kwargs)
return elasticsearchStore
@staticmethod
def ExactRetrievalStrategy() -> "ExactRetrievalStrategy":
"""Used to perform brute force / exact
nearest neighbor search via script_score."""
return ExactRetrievalStrategy()
@staticmethod
def ApproxRetrievalStrategy(
query_model_id: Optional[str] = None,
hybrid: Optional[bool] = False,
) -> "ApproxRetrievalStrategy":
"""Used to perform approximate nearest neighbor search
using the HNSW algorithm.
At build index time, this strategy will create a
dense vector field in the index and store the
embedding vectors in the index.
At query time, the text will either be embedded using the
provided embedding function or the query_model_id
will be used to embed the text using the model
deployed to Elasticsearch.
if query_model_id is used, do not provide an embedding function.
Args:
query_model_id: Optional. ID of the model to use to
embed the query text within the stack. Requires
embedding model to be deployed to Elasticsearch.
hybrid: Optional. If True, will perform a hybrid search
using both the knn query and a text query.
Defaults to False.
"""
return ApproxRetrievalStrategy(query_model_id=query_model_id, hybrid=hybrid)
@staticmethod
def SparseVectorRetrievalStrategy(
model_id: Optional[str] = None,
) -> "SparseRetrievalStrategy":
"""Used to perform sparse vector search via text_expansion.
Used for when you want to use ELSER model to perform document search.
At build index time, this strategy will create a pipeline that
will embed the text using the ELSER model and store the
resulting tokens in the index.
At query time, the text will be embedded using the ELSER
model and the resulting tokens will be used to
perform a text_expansion query.
Args:
model_id: Optional. Default is ".elser_model_1".
ID of the model to use to embed the query text
within the stack. Requires embedding model to be
deployed to Elasticsearch.
"""
return SparseRetrievalStrategy(model_id=model_id)
| [] |
2024-01-10 | yamyyao/langchain | libs~langchain~tests~integration_tests~vectorstores~test_xata.py | """Test Xata vector store functionality.
Before running this test, please create a Xata database by following
the instructions from:
https://python.langchain.com/docs/integrations/vectorstores/xata
"""
import os
from langchain.docstore.document import Document
from langchain.embeddings.openai import OpenAIEmbeddings
from langchain.vectorstores.xata import XataVectorStore
class TestXata:
@classmethod
def setup_class(cls) -> None:
assert os.getenv("XATA_API_KEY"), "XATA_API_KEY environment variable is not set"
assert os.getenv("XATA_DB_URL"), "XATA_DB_URL environment variable is not set"
def test_similarity_search_without_metadata(
self, embedding_openai: OpenAIEmbeddings
) -> None:
"""Test end to end constructions and search without metadata."""
texts = ["foo", "bar", "baz"]
docsearch = XataVectorStore.from_texts(
api_key=os.getenv("XATA_API_KEY"),
db_url=os.getenv("XATA_DB_URL"),
texts=texts,
embedding=embedding_openai,
)
docsearch.wait_for_indexing(ndocs=3)
output = docsearch.similarity_search("foo", k=1)
assert output == [Document(page_content="foo")]
docsearch.delete(delete_all=True)
def test_similarity_search_with_metadata(
self, embedding_openai: OpenAIEmbeddings
) -> None:
"""Test end to end construction and search with a metadata filter.
This test requires a column named "a" of type integer to be present
in the Xata table."""
texts = ["foo", "foo", "foo"]
metadatas = [{"a": i} for i in range(len(texts))]
docsearch = XataVectorStore.from_texts(
api_key=os.getenv("XATA_API_KEY"),
db_url=os.getenv("XATA_DB_URL"),
texts=texts,
embedding=embedding_openai,
metadatas=metadatas,
)
docsearch.wait_for_indexing(ndocs=3)
output = docsearch.similarity_search("foo", k=1, filter={"a": 1})
assert output == [Document(page_content="foo", metadata={"a": 1})]
docsearch.delete(delete_all=True)
| [] |
2024-01-10 | yamyyao/langchain | libs~experimental~langchain_experimental~comprehend_moderation~toxicity.py | import asyncio
import importlib
from typing import Any, List, Optional
from langchain_experimental.comprehend_moderation.base_moderation_exceptions import (
ModerationToxicityError,
)
class ComprehendToxicity:
def __init__(
self,
client: Any,
callback: Optional[Any] = None,
unique_id: Optional[str] = None,
chain_id: Optional[str] = None,
) -> None:
self.client = client
self.moderation_beacon = {
"moderation_chain_id": chain_id,
"moderation_type": "Toxicity",
"moderation_status": "LABELS_NOT_FOUND",
}
self.callback = callback
self.unique_id = unique_id
def _toxicity_init_validate(self, max_size: int) -> Any:
"""
Validate and initialize toxicity processing configuration.
Args:
max_size (int): Maximum sentence size defined in the
configuration object.
Raises:
Exception: If the maximum sentence size exceeds the 5KB limit.
Note:
This function ensures that the NLTK punkt tokenizer is downloaded
if not already present.
Returns:
None
"""
if max_size > 1024 * 5:
raise Exception("The sentence length should not exceed 5KB.")
try:
nltk = importlib.import_module("nltk")
nltk.data.find("tokenizers/punkt")
return nltk
except ImportError:
raise ModuleNotFoundError(
"Could not import nltk python package. "
"Please install it with `pip install nltk`."
)
except LookupError:
nltk.download("punkt")
def _split_paragraph(
self, prompt_value: str, max_size: int = 1024 * 4
) -> List[List[str]]:
"""
Split a paragraph into chunks of sentences, respecting the maximum size limit.
Args:
paragraph (str): The input paragraph to be split into chunks.
max_size (int, optional): The maximum size limit in bytes for
each chunk. Defaults to 1024.
Returns:
List[List[str]]: A list of chunks, where each chunk is a list
of sentences.
Note:
This function validates the maximum sentence size based on service
limits using the 'toxicity_init_validate' function. It uses the NLTK
sentence tokenizer to split the paragraph into sentences.
Example:
paragraph = "This is a sample paragraph. It
contains multiple sentences. ..."
chunks = split_paragraph(paragraph, max_size=2048)
"""
# validate max. sentence size based on Service limits
nltk = self._toxicity_init_validate(max_size)
sentences = nltk.sent_tokenize(prompt_value)
chunks = list() # type: ignore
current_chunk = list() # type: ignore
current_size = 0
for sentence in sentences:
sentence_size = len(sentence.encode("utf-8"))
# If adding a new sentence exceeds max_size
# or current_chunk has 10 sentences, start a new chunk
if (current_size + sentence_size > max_size) or (len(current_chunk) >= 10):
if current_chunk: # Avoid appending empty chunks
chunks.append(current_chunk)
current_chunk = []
current_size = 0
current_chunk.append(sentence)
current_size += sentence_size
# Add any remaining sentences
if current_chunk:
chunks.append(current_chunk)
return chunks
def validate(self, prompt_value: str, config: Any = None) -> str:
"""
Check the toxicity of a given text prompt using AWS
Comprehend service and apply actions based on configuration.
Args:
prompt_value (str): The text content to be checked for toxicity.
config (Dict[str, Any]): Configuration for toxicity checks and actions.
Returns:
str: The original prompt_value if allowed or no toxicity found.
Raises:
ValueError: If the prompt contains toxic labels and cannot be
processed based on the configuration.
"""
chunks = self._split_paragraph(prompt_value=prompt_value)
for sentence_list in chunks:
segments = [{"Text": sentence} for sentence in sentence_list]
response = self.client.detect_toxic_content(
TextSegments=segments, LanguageCode="en"
)
if self.callback and self.callback.toxicity_callback:
self.moderation_beacon["moderation_input"] = segments # type: ignore
self.moderation_beacon["moderation_output"] = response
toxicity_found = False
threshold = config.get("threshold")
toxicity_labels = config.get("labels")
if not toxicity_labels:
for item in response["ResultList"]:
for label in item["Labels"]:
if label["Score"] >= threshold:
toxicity_found = True
break
else:
for item in response["ResultList"]:
for label in item["Labels"]:
if (
label["Name"] in toxicity_labels
and label["Score"] >= threshold
):
toxicity_found = True
break
if self.callback and self.callback.toxicity_callback:
if toxicity_found:
self.moderation_beacon["moderation_status"] = "LABELS_FOUND"
asyncio.create_task(
self.callback.on_after_toxicity(
self.moderation_beacon, self.unique_id
)
)
if toxicity_found:
raise ModerationToxicityError
return prompt_value
| [] |
2024-01-10 | yamyyao/langchain | libs~langchain~langchain~memory~readonly.py | from typing import Any, Dict, List
from langchain.schema import BaseMemory
class ReadOnlySharedMemory(BaseMemory):
"""A memory wrapper that is read-only and cannot be changed."""
memory: BaseMemory
@property
def memory_variables(self) -> List[str]:
"""Return memory variables."""
return self.memory.memory_variables
def load_memory_variables(self, inputs: Dict[str, Any]) -> Dict[str, str]:
"""Load memory variables from memory."""
return self.memory.load_memory_variables(inputs)
def save_context(self, inputs: Dict[str, Any], outputs: Dict[str, str]) -> None:
"""Nothing should be saved or changed"""
pass
def clear(self) -> None:
"""Nothing to clear, got a memory like a vault."""
pass
| [] |
2024-01-10 | huqianghui/aigc-langchain-bot | common~bing_search_multi_market.py | """Util that calls Bing Search.
In order to set this up, follow instructions at:
https://levelup.gitconnected.com/api-tutorial-how-to-use-bing-web-search-api-in-python-4165d5592a7e
"""
from typing import Dict, List
import requests
from langchain.utilities import BingSearchAPIWrapper
class BingSearchAPIMultiMarketWrapper(BingSearchAPIWrapper):
"""Wrapper for Bing Search API.
In order to set this up, follow instructions at:
https://levelup.gitconnected.com/api-tutorial-how-to-use-bing-web-search-api-in-python-4165d5592a7e
"""
bing_subscription_key: str
bing_search_url: str
k: int = 3
market: str = "en-US" # 添加 market 参数,默认为 en-US
def _bing_search_results(self, search_term: str, count: int,market: str) -> List[dict]:
headers = {"Ocp-Apim-Subscription-Key": self.bing_subscription_key}
params = {
"q": search_term,
"count": count,
"textDecorations": True,
"textFormat": "HTML",
"mkt": self.market, # 将 market 参数添加到搜索请求中
}
response = requests.get(
self.bing_search_url, headers=headers, params=params # type: ignore
)
response.raise_for_status()
search_results = response.json()
return search_results["webPages"]["value"]
def run(self, query: str) -> str:
"""Run query through BingSearch and parse result."""
snippets = []
results = self._bing_search_results(query, count=self.k,market=self.market)
if len(results) == 0:
return "No good Bing Search Result was found"
for result in results:
snippets.append(result["snippet"])
return " ".join(snippets)
def results(self, query: str, num_results: int) -> List[Dict]:
"""Run query through BingSearch and return metadata.
Args:
query: The query to search for.
num_results: The number of results to return.
Returns:
A list of dictionaries with the following keys:
snippet - The description of the result.
title - The title of the result.
link - The link to the result.
"""
metadata_results = []
results = self._bing_search_results(query, count=num_results,market=self.market)
if len(results) == 0:
return [{"Result": "No good Bing Search Result was found"}]
for result in results:
metadata_result = {
"snippet": result["snippet"],
"title": result["name"],
"link": result["url"],
}
metadata_results.append(metadata_result)
return metadata_results
| [] |
2024-01-10 | aahn33/llm-summary | map_and_refine~refine.py | from langchain.chat_models import ChatOpenAI
from langchain.docstore.document import Document
from langchain.prompts import PromptTemplate
from langchain.chains.summarize import load_summarize_chain
from langchain.text_splitter import CharacterTextSplitter
from langchain.callbacks import get_openai_callback
import tiktoken
import os
class TextRefiner:
def __init__(self, llm, model_name):
self.llm = llm
self.model_name = model_name
self.total_tokens = 0
# Setup summarization and refinement prompts
sum_prompt_template = """
Write a summary of the text that includes the main points and any important details in paragraph form.
{text}
"""
self.sum_prompt = PromptTemplate(template=sum_prompt_template, input_variables=["text"])
refine_prompt_template = '''
Your assignment is to expand an existing summary by adding new information that follows it. Here's the current summary up to a specified point:
{existing}
Now, consider the following content which occurs after the existing summary:
{text}
Evaluate the additional content for its relevance and importance in relation to the existing summary. If this new information is significant and directly relates to what has already been summarized, integrate it smoothly into the existing summary to create a comprehensive and cohesive final version. If the additional content doesn't provide substantial value or isn't relevant to the existing summary, simply return the original summary as it is. If the summary is getting too long you can shorten it by removing unnecessary details.
Your final output must only be the comprehensive and cohesive final version of the summary. It should contain no other text, such as reasoning behind the summary.
Summary:
'''
self.refine_prompt = PromptTemplate(template=refine_prompt_template, input_variables=["existing", "text"])
# Load chains
self.sum_chain = load_summarize_chain(llm, chain_type="stuff", prompt=self.sum_prompt)
self.refine_chain = load_summarize_chain(llm, chain_type="stuff", prompt=self.refine_prompt)
# Setup text splitter
self.text_splitter = CharacterTextSplitter.from_tiktoken_encoder(chunk_size=3500, chunk_overlap=0)
def refine(self, text):
texts = self.text_splitter.split_text(text)
print(f"The text was split into {len(texts)} chunks.")
texts_docs = [[Document(page_content=text)] for text in texts]
cur_summary = ""
for num, chunk in enumerate(texts_docs):
with get_openai_callback() as cb:
print(f"Processing chunk {num}")
chunk_sum = self.sum_chain.run(chunk)
self.save_to_file(chunk_sum, "chunk_sum", num)
input = {'existing': cur_summary, 'input_documents': [Document(page_content=chunk_sum)]}
cur_summary = self.refine_chain.run(input)
self.total_tokens += cb.total_tokens
self.save_to_file(cur_summary, "cur_summary", num)
return cur_summary, self.total_tokens
def save_to_file(self, text, name, iteration):
directory = "refine"
if not os.path.exists(directory):
os.makedirs(directory)
filename = f"{name}_{iteration}.txt"
with open(os.path.join(directory, filename), 'w', encoding='utf-8') as file:
file.write(text)
if __name__ == '__main__':
# Usage of the TextRefiner class
model_name = "gpt-3.5-turbo"
llm = ChatOpenAI(temperature=0, openai_api_key="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", model_name=model_name)
refiner = TextRefiner(llm, model_name)
file_path = 'Gatsby.txt'
with open(file_path, 'r', encoding='utf-8') as file:
book_text = file.read()
summary, total_tokens = refiner.refine(book_text)
print(f"Total tokens: {total_tokens}")
print(summary)
| [
"\n Your assignment is to expand an existing summary by adding new information that follows it. Here's the current summary up to a specified point:\n\n {existing}\n\n Now, consider the following content which occurs after the existing summary:\n\n {text}\n\n Evaluate the additional content for its relevance and importance in relation to the existing summary. If this new information is significant and directly relates to what has already been summarized, integrate it smoothly into the existing summary to create a comprehensive and cohesive final version. If the additional content doesn't provide substantial value or isn't relevant to the existing summary, simply return the original summary as it is. If the summary is getting too long you can shorten it by removing unnecessary details.\n\n Your final output must only be the comprehensive and cohesive final version of the summary. It should contain no other text, such as reasoning behind the summary.\n\n Summary:\n ",
"\n Write a summary of the text that includes the main points and any important details in paragraph form.\n {text}\n "
] |