赞
踩
例如,我们在电商领域沉淀了很多领域知识,但这些信息并没有被LLM训练过,这使得LLM在回答电商领域的特定问题时,表现不佳。
(1)LLM学习过的信息:大量公开数据,如维基百科、邮件列表、教科书、源代码等。
(2)LLM大概率没有学习过的信息:私人或特定领域数据。
poetry可以帮助你管理包依赖。
在项目的根目录下
执行 poetry shell命令时,Poetry会在这个目录中寻找一个名为pyproject.toml
的文件,这个文件是Poetry用来管理项目配置和依赖的
。如果Poetry在当前目录中找到了pyproject.toml文件,它就会知道需要为这个目录下的项目激活虚拟环境
。如果没有找到,Poetry通常会报错,提示没有找到Poetry项目。你可以通过输入exit命令或关闭终端来退出虚拟环境。(1)在Python开发中,通常推荐为每个项目创建一个独立的虚拟环境,这样能够保证每个项目的依赖库之间不会互相干扰。
(2)在虚拟环境被激活的状态下,你使用python或pip命令安装的库都会被安装到这个虚拟环境中,不会影响到其他项目或全局Python环境。
(3)poetry很像java的maven。pyproject.toml类似于maven的pom.xml
learn_demo_llama_index
一路回车,生成
pyproject.toml
文件后,对文件进行修改。
pyproject.toml
文件:[tool.poetry] name = "learn-demo-llama-index" version = "0.1.0" description = "" authors = ["..."] [tool.poetry.dependencies] python = "^3.12" [[tool.poetry.source]] name = "aliyun" url = "https://mirrors.aliyun.com/pypi/simple/" priority = "default" [build-system] requires = ["poetry-core"] build-backend = "poetry.core.masonry.api"
我做了2处修改:
(1)删除readme = "README.md"
(2)换源
项目结构
Add Python Interpreter
准备数据:data/paul_graham_essay.txt
官方文档提供了
from llama_index import VectorStoreIndex, SimpleDirectoryReader import os os.environ['http_proxy'] = 'socks5://127.0.0.1:1081' os.environ['https_proxy'] = 'socks5://127.0.0.1:1081' os.environ["OPENAI_API_KEY"] = "..." # Load data and build an index documents = SimpleDirectoryReader("data").load_data() index = VectorStoreIndex.from_documents(documents) # Query your data query_engine = index.as_query_engine() response = query_engine.query("What did the author do growing up?") print(response)
如果报错:
ModuleNotFoundError: No module named 'pkg_resources'
那么执行:poetry add setuptools
因为 ‘pkg_resources’ 是属于 ‘setuptools’ 的一部分,这将会把 ‘setuptools’ 添加到pyproject.toml文件中,并且安装这个包。
注意:前提知道“通过代理如何调通openai的api”
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。