Open Interpreter 一款通过让大语言模型在本地运行代码的开源神器

xbkong
发布于 2023-10-20 11:50
浏览
0收藏

最近在逛 ​​Github​​​ 的时候发现了一款神器,叫做 ​​Open Interpreter​​,主要是用来实现在本地和大语言模型进行交互的,通过大语言模型将自然语言转换为脚本代码,然后在本地执行从而实现目标。

简单来说比如你想在桌面上创建一个名为 ​​joke.txt​​​ 文件,你不在需要手动创建,而是通过自然语言告诉  ​​Open Interpreter​​​,让它帮我们生成创建文件的脚本,然后在本地执行,从而生成一个 ​​joke.txt​​ 文件。

我们要做的就是告诉它我们的需求是什么,以及允许它在本地执行代码即可。

如下所示

Open Interpreter 一款通过让大语言模型在本地运行代码的开源神器-鸿蒙开发者社区

上面的 ​​case​​ 整个过程分三步:

  1. 我们通过自然语言描述一个需求:帮我在桌面上的​​open-test​​​ 文件中创建一个名为​​joke.txt​​ 的文件
  2. ​Open Interpreter​​ 会将我们的需求进行拆解,并且列出它的执行计划和要执行的命令。

  计划:

   1 检查桌面上的 open-test 文件夹是否存在,如果不存在则创建它。
   2 在 open-test 文件夹中创建一个名为 joke.txt 的文件。

  我将使用以下代码来完成这个任务。


  mkdir -p ~/Desktop/open-test && touch ~/Desktop/open-test/joke.txt
  1. 在经过我们的人工确认后进行执行,最终成功的创建出的文件。

这个项目刚刚起步,这个 ​​case​​ 也很简单,但是我们要知道这仿佛打开了另一扇大门,以后只要是通过代码能实现的功能,我们都可以通过自然语言来实现了,想想都很激动(可怕)。

官方的介绍这个工具都可以用来编辑视频以及发送邮件,只能说很有前景。

安装和配置

安装 ​​conda​

这个项目的安装也非常简单,正常我们只要在命令行中执行 ​​pip install open-interpreter​​​  即可,但是为了保证环境的稳定,我们这边准备用 ​​conda​​​ 进行环境隔离,所以我们首先安装 ​​conda​​,依次执行下面的命令

# 获取脚本
wget https://repo.anaconda.com/archive/Anaconda3-2023.07-2-Linux-x86_64.sh
# 增加可执行权限
chmod +x Anaconda3-2023.07-2-Linux-x86_64.sh
# 运行安装脚本
./Anaconda3-2023.07-2-Linux-x86_64.sh
# 查询版本
conda -V

如何能正常输出版本号,则表明安装成功,如果提示命令不存在,那我们就需要配置一下环境变量,在

vim .bash_profile
# 加入下面一行
PATH=$PATH:$HOME/bin:$NODE_PATH/bin:/root/anaconda3/bin
# 再次执行
conda -V

Open Interpreter 一款通过让大语言模型在本地运行代码的开源神器-鸿蒙开发者社区

创建隔离环境

安装完成 ​​conda​​​ 过后,我们就创建指定 ​​Python​​ 版本的隔离环境了,通过如下命令

conda create -n python311 python=3.11

这行代码的含义是通过 ​​conda create​​​ 创建一个名字叫 ​​python311​​​ 的隔离环境,隔离环境的 ​​python​​ 版本指定为 3.11,创建完成过后我们可以通过下面的命令查询隔离环境的列表。

conda env list

Open Interpreter 一款通过让大语言模型在本地运行代码的开源神器-鸿蒙开发者社区

安装 open-interpreter

然后我们进入到隔离环境中,在隔离环境中安装 ​​open interpreter​​,命令如下

conda activate python311
pip install open-interpreter

等待一会即可安装成功,安装成功过后输入下面命令,即可开启本地大语言模型交互。

interpreter

Open Interpreter 一款通过让大语言模型在本地运行代码的开源神器-鸿蒙开发者社区

直接输入 ​​interpreter​​​ 命令会要求我们输入自己的 ​​OpenAI API key​​​,此时默认使用的 ​​GPT-4​​​ 模型,我们可以通过增加 ​​--fast​​​ 参数来使用 ​​GPT-3.5​​,

interpreter --fast

这里我们每次执行都需要手动填入 ​​OpenAI API key​​ 比较麻烦,可以配置一下环境变量

export OPENAI_API_KEY=skxxxx

这样我们后续执行就不用在手动填 ​​OpenAI​​​ 的​​API key​​​ 了,如果想用微软的 ​​Azure OpenAI​​​ 的话,也是支持的,只要配置下面的环境变量,然后在启动的时候增加 ​​--use-azure​​ 参数就可以了

export AZURE_API_KEY=
export AZURE_API_BASE=
export AZURE_API_VERSION=
export AZURE_DEPLOYMENT_NAME=

interpreter --use-azure

Open Interpreter 一款通过让大语言模型在本地运行代码的开源神器-鸿蒙开发者社区

本地启动

上面的操作都需要我们有对应 ​​OpenAI​​​ 的 ​​API Key​​​ 或者 ​​Azure​​​ 的 ​​OpenAI​​​ 的 ​​endpoint​​​,其实 ​​open interpreter​​​ 还支持本地运行,只要在启动的时候增加 ​​--local​​ 参数,然后就让我们选择对应的模型。不过对于本地运行需要我们的电脑配置支持才行,感兴趣的小伙伴可以参考官方文档实践一下,我这边的配置不允许~~

Open Interpreter 一款通过让大语言模型在本地运行代码的开源神器-鸿蒙开发者社区

总结

今天给大家介绍了一下 ​​Open interpreter​​ 的安装方法和简单玩法,这个项目还在高速的迭代中,相信不久的将来将会带来一场变革,不得不说 AI 的时代是真正的到来了,未来几年将会是 AI 产品的井喷时代,作为程序员我们要紧跟时代的步伐不掉队。


文章转载自公众号:Java极客技术

标签
已于2023-10-20 11:50:12修改
收藏
回复
举报
回复
    相关推荐