imtoken钱包下载app
数字资产服务平台

imtoken钱包下载app是全球著名的数字资产交易平台之一,主要面向全球用户提供比特币、莱特币、以太币等数字资产的币币和衍生品交易服务。

tp安卓官网版下载|chatgpt 开源

时间:2024-03-08 21:21:53

13 个开源 CHATGPT 模型:完整指南 - 知乎

13 个开源 CHATGPT 模型:完整指南 - 知乎首发于穆双小站切换模式写文章登录/注册13 个开源 CHATGPT 模型:完整指南穆双数字世界探索者在本文中,我们将解释开源 ChatGPT 模型的工作原理以及如何运行它们。我们将涵盖十三种不同的开源模型,即 LLaMA、Alpaca、GPT4All、GPT4All-J、Dolly 2、Cerebras-GPT、GPT-J 6B、Vicuna、Alpaca GPT-4、OpenChatKit、ChatRWKV、Flan-T5 和 OPT。到本文结束时,您应该对这些模型有很好的理解,并且您应该能够在 Python 中运行它们。ChatGPT 不是开源的。它有两个最近流行的版本 GPT-3.5 和 GPT-4。GPT-4 对 GPT-3.5 进行了重大改进,并且在生成响应方面更加准确。ChatGPT 不允许您查看或修改源代码,因为它不是公开的。因此,需要开源且免费提供的模型。通过使用这些开源模型,您无需为 OpenAI API 付费即可访问它们。开源 ChatGPT 模型的好处使用作为 ChatGPT 替代品的开源大型语言模型有很多好处。下面列出了其中一些。数据隐私:许多公司希望控制数据。这对他们来说很重要,因为他们不希望任何第三方访问他们的数据。定制化:它允许开发人员使用自己的数据训练大型语言模型,如果他们想应用,可以对某些主题进行一些过滤负担能力:开源 GPT 模型让您可以训练复杂的大型语言模型,而无需担心昂贵的硬件。人工智能民主化:它为进一步研究开辟了空间,可用于解决现实世界的问题。您必须知道的开源聊天 GPT 模型骆驼简介 : LLaMAPython代码:LLaMA羊驼简介 : 羊驼羊驼是如何工作的表演 : 羊驼局限性:羊驼内存要求:羊驼Python代码:羊驼输出:羊驼GPT4全部简介:GPT4AllGPT4All 是如何工作的性能:GPT4All内存要求:GPT4AllPython代码:GPT4All输出:GPT4All错误调试GPT4All-J多莉 2内存要求:多莉 2Python代码:多莉2骆马简介:骆马Python代码:Vicuna羊驼 GPT-4 模型简介:羊驼GPT-4Python代码:羊驼GPT-4大脑-GPT简介:Cerebras-GPT内存要求:Cerebras-GPTPython 代码:Cerebras-GPTGPT-J 6B简介 : GPT-J 6BPython代码:GPT-J 6BOpenChatKit 模型简介:OpenChatKit演示:OpenChatKit内存要求:OpenChatKitPython 代码:Pythia-Chat-Base-7B聊天RWKV简介 : ChatRWKV演示:聊天RWKVPython代码:聊天RWKV法兰-T5选择开源 GPT 模型的比较LLaMA骆驼LLaMA简介 : LLaMA 代表大型语言模型元 AI。它包括从 70 亿到 650 亿个参数的一系列模型大小。Meta AI 研究人员专注于通过增加训练数据量而不是参数数量来扩展模型的性能。他们声称 130 亿参数模型优于 GPT-3 模型的 1750 亿参数。它使用 transformer 架构,并接受了通过网络抓取维基百科、GitHub、Stack Exchange、古腾堡计划的书籍以及 ArXiv 上的科学论文提取的 1.4 万亿个令牌的训练。# Install Package

pip install llama-cpp-python

from llama_cpp import Llama

llm = Llama(model_path="./models/7B/ggml-model.bin")

output = llm("Q: Name the planets in the solar system? A: ", max_tokens=128, stop=["Q:", "\n"], echo=True)

print(output)在模型路径中,您需要具有 GGML 格式的 LLaMA 权重,然后将它们存储到模型文件夹中。您可以在 Hugging Face 网站上搜索它。在这里看到其中一个Alpaca羊驼LLaMA简介 : 斯坦福大学的一组研究人员开发了一种名为Alpaca. 它基于 Meta 的大规模语言模型LLaMA。该团队使用 OpenAI 的 GPT API (text-davinci-003) 微调 LLaMA 70 亿 (7B) 参数大小的模型。该团队的目标是让每个人都可以免费使用 AI,这样院士们就可以进行进一步的研究,而不必担心昂贵的硬件来执行这些内存密集型算法。尽管这些开源模型不可用于商业用途,但小型企业仍然可以利用它来构建自己的聊天机器人。羊驼是如何工作的斯坦福团队从 LLaMA 模型中最小的语言模型 LLaMA 7B 模型开始他们的研究,并用 1 万亿个令牌对其进行预训练。他们从自我指导种子集中的 175 个人工编写的指令输出对开始。然后,他们使用 OpenAI API 要求 ChatGPT 使用种子集生成更多指令。这是为了获得大约 52,000 个示例对话,团队使用这些对话进一步微调使用 Hugging Face 训练框架的 LLaMA 模型。LLaMA 有多种尺寸 - 7B、13B、30B 和 65B 参数。Alpaca 也扩展到 13B、30B 和 65B 型号。Alpaca 性能Alpaca 模型在电子邮件创建、社交媒体和生产力工具等任务中针对 ChatGPT 进行了测试,Alpaca 赢了 90 次,而 ChatGPT 赢了 89 次。该模型可以在现实世界中用于各种目的。这将对研究人员进行道德人工智能和网络安全活动(如检测诈骗和网络钓鱼)有很大帮助。Alpaca 局限性与商业版的 ChatGPT 一样,Alpaca 也有类似的局限性,即遭受幻觉、毒性和刻板印象。换句话说,它可以用来生成散布错误信息、种族主义和对社会弱势群体的仇恨的文本。内存要求:羊驼它不能在 CPU 上运行,需要 GPU。对于 7B 和 13B 型号,它需要一个 GPU 和 12GB 内存。对于 30B 型号,您需要更多系统资源。Python代码:羊驼我已经创建了Colab 代码。您可以使用它作为参考。因为我使用的是免费版的 Colab,所以我运行的是最小的 7B 型。您可以将其更改为 13B 和 30B。与 ChatGPT 的商业界面类似,代码的输出结果是在 Gradio 中创建的 Web 界面。此外,您可以将此界面用于演示目的,并与同事或客户共享。使用 Python 3.9 创建环境import sys

sys.path.append("/usr/local/lib/python3.9/site-packages")下面的命令nvidia-smi是显示有关 GPU 使用情况和性能的信息的命令。!nvidia-smi下载 Git 存储库!git clone https://github.com/deepanshu88/Alpaca-LoRA-Serve.git

安装所需的包%cd Alpaca-LoRA-Serve

!python3.9 -m pip install -r requirements.txt选择模型尺寸base_model = 'decapoda-research/llama-7b-hf'

finetuned_model = 'tloen/alpaca-lora-7b'运行应用程序!python3.9 app.py --base_url $base_model --ft_ckpt_url $finetuned_model --share

完整代码import sys

sys.path.append("/usr/local/lib/python3.9/site-packages")

!nvidia-smi

!git clone https://github.com/deepanshu88/Alpaca-LoRA-Serve.git

%cd Alpaca-LoRA-Serve

!python3.9 -m pip install -r requirements.txt

base_model = 'decapoda-research/llama-7b-hf'

finetuned_model = 'tloen/alpaca-lora-7b'

!python3.9 app.py --base_url $base_model --ft_ckpt_url $finetuned_model --share上面的代码支持比 7B 更大的语言模型。请参阅下面的参考资料。7B 和 13B 可以在免费版本的 colab 中使用。对于 30B,您需要购买高级版的 colab。--base_url的可能值- decapoda-research/llama-7b-hf

- decapoda-research/llama-13b-hf

- decapoda-research/llama-30b-hf--ft_ckpt_url的可能值- tloen/alpaca-lora-7b

- chansung/alpaca-lora-13b

- chansung/alpaca-lora-30b Alpaca输出:请参阅下面的输出,其中我问了两个相对简单的问题。一个与通用主题相关,另一个与编码相关。它正确地回答了这两个问题。GPT4All简介:GPT4AllNomic AI Team 从 Alpaca 获得灵感,使用 GPT-3.5-Turbo OpenAI API 收集了大约 800,000 个提示-响应对,创建了 430,000 个助手式提示和生成训练对,包括代码、对话和叙述。80 万对大约是羊驼的 16 倍。该模型最好的部分是它可以在 CPU 上运行,不需要 GPU。与 Alpaca 一样,它也是一个开源软件,可以帮助个人进行进一步的研究,而无需花费在商业解决方案上。GPT4All 是如何工作的它的工作原理类似于羊驼,基于 LLaMA 7B 模型。LLaMA 7B 和最终模型的微调模型在 437,605 个后处理助手式提示上进行了训练。性能:GPT4All在自然语言处理中,困惑度用于评估语言模型的质量。它衡量语言模型根据其训练数据看到以前从未遇到过的新单词序列时会有多惊讶。较低的困惑值表示语言模型更擅长预测序列中的下一个单词,因此更准确。Nomic AI 团队声称他们的模型比 Alpaca 具有更低的困惑度。真正的准确性取决于您的提示类型。在某些情况下,Alpaca 可能具有更好的准确性。内存要求:GPT4All它可以在具有 8GB RAM 的 CPU 上运行。如果你有一台 4GB RAM 的笔记本电脑,可能是时候升级到至少 8G 了Python代码:GPT4AllColab 代码可供您使用。您可以将其用作参考,根据需要进行修改,甚至按原样运行。完全由您决定如何使用代码来最好地满足您的要求。克隆 Git 存储库!git clone --recurse-submodules https://github.com/nomic-ai/gpt4all.git

安装所需的包cd /content/gpt4all

!python -m pip install -r requirements.txt

cd transformers

!pip install -e .

cd ../peft

!pip install -e .训练!accelerate launch --dynamo_backend=inductor --num_processes=8 --num_machines=1 --machine_rank=0 --deepspeed_multinode_launcher standard --mixed_precision=bf16 --use_deepspeed --deepspeed_config_file=configs/deepspeed/ds_config.json train.py --config configs/train/finetune.yaml下载 CPU 量化的 gpt4all 模型检查点cd /content/gpt4all/chat

!wget https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin运行会话系统!./gpt4all-lora-quantized-linux-x86如果您在运行除linux以外的任何其他操作系统的本地计算机上运行它,请使用下面的命令代替:Windows (PowerShell): ./gpt4all-lora-quantized-win64.exe

Mac (M1): ./gpt4all-lora-quantized-OSX-m1

Mac (Intel): ./gpt4all-lora-quantized-OSX-intel完整代码!git clone --recurse-submodules https://github.com/nomic-ai/gpt4all.git

cd /content/gpt4all

!python -m pip install -r requirements.txt

cd transformers

!pip install -e .

cd ../peft

!pip install -e .

!accelerate launch --dynamo_backend=inductor --num_processes=8 --num_machines=1 --machine_rank=0 --deepspeed_multinode_launcher standard --mixed_precision=bf16 --use_deepspeed --deepspeed_config_file=configs/deepspeed/ds_config.json train.py --config configs/train/finetune.yaml

cd /content/gpt4all/chat

!wget https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin

!./gpt4all-lora-quantized-linux-x86输出:GPT4AllGPT4All 无法正确回答与编码相关的问题。这只是一个例子,不能据此判断准确性。它可能在其他提示中运行良好,因此模型的准确性取决于您的使用情况。此外,当我在 2 天后再次运行它时,它适用于与编码相关的问题。看来他们进一步完善了模型。错误调试Distributed package doesn't have NCCL - 如果您在Mac操作系统上遇到此问题,那是因为您的计算机上未安装 CUDA。Issues on Windows 10/11 - 一些用户报告说他们在 Windows 平台上遇到了一些奇怪的错误。作为最后的手段,您可以安装适用于 Linux 的 Windows 子系统,它允许您在 Windows 机器上安装 Linux 发行版,然后可以按照上面的代码进行操作。GPT4All-J您一定想知道这个模型如何与前一个名称相似,只是后缀为“J”。这是因为这两个模型都来自 Nomic AI 的同一个团队。唯一的区别是它现在是在GPT-J上而不是在 LLaMa 上训练的。在 GPT-J 上训练它的好处是 GPT4All-J 现在是 Apache-2 许可的,这意味着您可以将它用于商业目的,也可以轻松地在您的机器上运行。下载安装文件根据您的操作系统下载以下安装程序文件。安装完成后,您需要导航到安装文件夹中的“bin”目录。要启动 GPT4All Chat 应用程序,请执行“bin”文件夹中的“chat”文件。该文件将在 Linux 上命名为“chat”,在 Windows 上命名为“chat.exe”,在 macOS 上命名为“chat.app”视窗Linux苹果系统dolly 2 -- 多莉 2Databricks 团队基于 EleutherAI 的 Pythia 模型创建了大型语言模型,随后他们在大约 15,000 条记录指令语料库上进行了微调。它遵循 Apache 2 许可,这意味着训练它的模型、训练代码、数据集和模型权重都可以作为开源使用,这样您就可以将它用于商业用途来创建您自己的自定义大型语言模型。它具有三种尺寸 - 12B、7B 和 3B 参数。 databricks/dolly-v2-12b on pythia-12b

databricks/dolly-v2-7b on pythia-6.9b

databricks/dolly-v2-3b on pythia-2.8b内存要求:多莉 2对于具有 8 位量化的 7B 模型,它需要一个具有大约 10GB RAM 的 GPU。对于 12B 型号,它至少需要 18GB GPU vRAM。Python代码:多莉2from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline

baseModel = "databricks/dolly-v2-12b"

load_8bit = True

tokenizer = AutoTokenizer.from_pretrained("databricks/dolly-v2-12b")

model = AutoModelForCausalLM.from_pretrained(baseModel, load_in_8bit=load_8bit, torch_dtype=torch.float16, device_map="auto")

generator = pipeline(task='text-generation', model=model, tokenizer=tokenizer)

print(generator("Python code to remove duplicates from dataframe"))Vicuna - 骆马简介:骆马来自加州大学伯克利分校、卡内基梅隆大学、斯坦福大学和加州大学圣地亚哥分校的研究人员团队开发了这个模型。它使用从 ShareGPT 网站提取的聊天数据集在 LLaMA 上进行了微调。研究人员声称该模型的质量得分超过 OpenAI ChatGPT-4 的 90%。值得注意的是,它的性能几乎与Bard持平。他们使用了羊驼的训练程序,并在多轮对话和长序列两个方面进行了进一步改进。Python代码:Vicuna您可以参考这篇文章——Vicuna详细指南来访问 python 代码和 Vicuna 模型的详细描述。Alpaca GPT-4 Model (羊驼 GPT-4 模型)简介:羊驼GPT-4您已经在本文的前一部分了解了 Alpaca。在这里,一些研究人员通过在 GPT-4 数据集上训练来改进原始的羊驼模型。请记住,斯坦福大学研究人员最初的羊驼模型是基于 GPT-3 模型的。这个 GPT-4 模型是在 LLaMA 130 亿 (13B) 参数大小的模型上训练的。Python代码:羊驼GPT-4Alpaca GPT-4 模型的 Python 程序在这里解释 - Alpaca GPT-4 详细指南。Cerebras-GPT(大脑-GPT)简介:Cerebras-GPT你们中的一些人可能以前没有听说过Cerebras Systems。他们不像以制造GPU而闻名的NVIDIA那样知名,但他们也是一家专门制造高性能计算系统的科技公司。他们最近发布了开源项目,其中包含七个基于 GPT 的语言模型,参数大小分别为 1.11 亿、2.56 亿、5.9 亿、13 亿、27 亿、67 亿和 130 亿。这些模型最好的部分是它们是免费提供的,并且可以用于商业目的,因为它符合 Apache 2.0 许可,而 LLaMA 带有“非商业”许可,这意味着它们是免费的但只能用于研究目的。此外,它们还有 7 种不同尺寸的型号可供选择,这意味着您可以根据硬件配置选择多种型号。如果您的硬件不允许试验大型模型,请选择较小的模型。内存要求:Cerebras-GPT它需要具有 12GB RAM 的 GPU 才能运行 1.3B 参数大小的 Cerebras-GPT 模型。Python 代码:Cerebras-GPT在下面的程序中,我们使用了由Stochastic IncxTuring团队开发的名为 python 包。它允许开发人员有效地微调不同的大型语言模型。它们还使语法非常易读且易于遵循。在这里,我们使用微调 Cerebras-GPT 模型Alpaca dataset可参考此Colab 代码进行测试。在下面的代码中,我们使用 Cerebras-GPT 1.3B 模型安装 xTuring 库!pip install xturing --upgrade

生成数据集!wget https://d33tr4pxdm6e2j.cloudfront.net/public_content/tutorials/datasets/alpaca_data.zip

!unzip alpaca_data.zip加载数据集并初始化模型from xturing.datasets.instruction_dataset import InstructionDataset

from xturing.models.base import BaseModel

instruction_dataset = InstructionDataset("/content/alpaca_data")

# Initializes the model

model = BaseModel.create("cerebras_lora_int8")微调模型model.finetune(dataset=instruction_dataset)构建聊天机器人output = model.generate(texts=["prime minister of India?"])

print("Generated output by the model: {}".format(output))微调模型需要大量处理时间,因此必须非常耐心。微调完成后,您可以保存模型以备将来参考。# Save Model

model.save("/path_directory")

# Load a fine-tuned model

finetuned_model = BaseModel.load("/path_directory")

In case the loading model returns error AssertionError: We were not able to find the xturing.json file in this directory, use the code below.

model = BaseModel.create("cerebras",weights_path="/path_directory")GPT-J 6B简介 : GPT-J 6BGPT-J 6B 由 EleutherAI 的研究人员开发。它不是新模型,因为它是在 2021 年下半年发布的。它有 60 亿个参数。它不像 Meta 的 LLaMA 那么大,但它在聊天、摘要和问答等各种自然语言处理任务上表现出色。模型的大尺寸并不一定意味着更准确。它在 TPU v3-256 pod 上接受了 4020 亿个令牌的训练。与 Cerebras-GPT 一样,GPT-J 6B 也获得了 Apache 2.0 许可,允许您将其用于商业目的。Python代码:GPT-J 6B您可以参考colab notebook进行试用。GPT-J 6B 的 Python 代码类似于Cerebras-GPT的代码。唯一的变化是基础模型的初始化BaseModel.create("gptj_lora_int8")而不是BaseModel.create("cerebras_lora_int8")OpenChatKit 模型简介:OpenChatKitOpenChatKit 是一种用于创建聊天机器人的开源大型语言模型,由 Together 开发。他们与 LAION 和 Ontocord 合作创建了训练数据集。它采用 Apache-2.0 许可,可以完全访问源代码、模型权重和训练数据集。该项目的目的是促进开源基础模型的包容性、透明度和稳健性。它擅长执行各种任务,包括上下文中的摘要和问答、信息提取和文本分类。它在 4300 万条指令大小的训练数据集上训练了 200 亿个参数。它被称为GPT-NeoXT-Chat-Base-20B它还有一个基于 ElutherAI 的 Pythia-7B 模型的模型,称为Pythia-Chat-Base-7B7B 参数语言模型。演示:OpenChatKit您可以在Hugging Face网站上查看该模型的演示内存要求:OpenChatKitPythia-Chat-Base-7B 可以在具有 12GB RAM 的单个 GPU 上运行。Python 代码:Pythia-Chat-Base-7B您可以将 colab notebook 用于Pythia-Chat-Base-7B。# GPU Configuration

!nvidia-smi

# Install conda

!wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh && chmod +x Miniconda3-latest-Linux-x86_64.sh && ./Miniconda3-latest-Linux-x86_64.sh -b -f -p /usr/local

# Setting up conda environment

!conda install mamba -n base -c conda-forge -y

!git clone https://github.com/orangetin/OpenChatKit.git --branch colab-example && cd OpenChatKit && mamba env create -f environment.yml

!source activate OpenChatKit && pip install bitsandbytes

# Download and run model

!source activate OpenChatKit && python OpenChatKit/inference/bot.py --model togethercomputer/Pythia-Chat-Base-7B --load-in-8bitChatRWKV简介 : ChatRWKVChatRWKV 由 RWKV (100% RNN) 语言模型提供支持,这是唯一可以在质量和缩放方面与 Transformer 相媲美的 RNN,同时速度更快并节省 VRAM。该模型在 Alpaca, code-alpaca 数据集上进行了微调。演示:聊天RWKV该模型的演示可在Hugging Face网站上获得Python代码:聊天RWKV您可以使用github上提供的代码构建 Web 界面Flan-T5(法兰-T5)Google 发布了开源 LLM 模型 Flan-T5。它是多语言的,并使用指令微调来提高预训练语言模型的性能和可用性。它是 T5 的变体,在许多自然语言处理任务中具有更好的泛化能力并优于 T5。OPTOPT 是 Meta 在 LLaMA 之前发布的语言模型。当 LLaMA 发布时,它的性能优于 OPT。OPT 是一个现在不应该考虑的模型,因为市场上已经有许多更好的开源模型,如上所示。开源 GPT 模型的比较Alpaca GPT-4 和 Vicuna 模型是所有开源模型中最准确和一致的模型。如果你能接触到大功率机器,推荐这两款。在内存需求方面,GPT4ALL 不需要昂贵的硬件,可以在 8GB RAM 的 CPU 上运行。如果您有预算/低端机器,那就去吧。它也不会在准确性方面妥协。如果您想将该模型用于商业目的,请选择 GPT4All-J、Dolly 2、OpenChatKit、Cerebras-GPT 和 GPT-J 6B。它们允许您分发您的软件以供商业使用。发布于 2023-05-04 10:47・IP 属地中国香港OpenAI开源LLM​赞同 63​​4 条评论​分享​喜欢​收藏​申请转载​文章被以下专栏收录穆双小站关于互联网哲学未

清华大学开源中文版ChatGPT模型——ChatGLM-6B发布 - 知乎

清华大学开源中文版ChatGPT模型——ChatGLM-6B发布 - 知乎首发于AI技术切换模式写文章登录/注册清华大学开源中文版ChatGPT模型——ChatGLM-6B发布数据学习​合肥工业大学 管理科学与工程博士ChatGLM-6B是清华大学知识工程和数据挖掘小组(Knowledge Engineering Group (KEG) & Data Mining at Tsinghua University)发布的一个开源的对话机器人。根据官方介绍,这是一个千亿参数规模的中英文语言模型。并且对中文做了优化。本次开源的版本是其60亿参数的小规模版本,约60亿参数,本地部署仅需要6GB显存(INT4量化级别)。ChatGLM-6B模型卡信息:https://www.datalearner.com/ai-models/pretrained-models/ChatGLM-6B从目前的使用情况看,这个模型虽然不大,但也是与ChatGPT类似,做了针对对话的调优,使用体验很好。下图是几个对话实例:该模型的基础模型是GLM( GLM: General Language Model Pretraining with Autoregressive Blank Infilling ),是一个千亿基座模型,目前仅接受内测邀请。根据测试,ChatGLM-6B虽然参数很少,但是效果很好。对于硬件的需求也很低。硬件需求:量化等级最低GPU显存FP16(无量化)13GBINT810GBINT46GBChatGLM-6B模型的具体安装使用方法以及其它信息,请参考ChatGLM-6B模型卡内容:发布于 2023-03-15 22:56・IP 属地江苏清华大学OpenAIChatGPT​赞同 90​​13 条评论​分享​喜欢​收藏​申请转载​文章被以下专栏收录AI技术介绍最新的AI技术、AI模型以及AI相关

5 个令人惊艳的 ChatGPT 项目,开源了! - 知乎

5 个令人惊艳的 ChatGPT 项目,开源了! - 知乎首发于GitHubDaily切换模式写文章登录/注册5 个令人惊艳的 ChatGPT 项目,开源了!GitHub Daily​自 3 月初 Open AI 开放 ChatGPT API 以来,GitHub 上诞生的开源项目数量之多,着实多得让我眼花缭乱、应接不暇。今天,我将着重挑选几个对日常工作、生活、学习帮助较大的 ChatGPT 开源项目,跟大家分享下,希望对你有所帮助。1. 利用 ChatGPT 总结论文作为当下最为流行的论文托管网站,arXiv 平台每天都会新增数量众多的优质论文,让来自世界各地的科学家、研究人员、学者泡在上面进行长时间的探索与学习。为了能提高 arXiv 用户的论文阅读效率,GitHub 上有人开源了一款可利用 ChatGPT 总结 arXiv 论文的开源工具:ChatPaper。GitHub:https://github.com/kaixindelele/ChatPaper该项目可根据用户关键词下载 arXiv 上的最新论文,利用 ChatGPT3.5 API 强大的归纳能力,将其浓缩成固定格式,文字少且易读。此外,作者还为 ChatPaper 提供了一个 Web 图形界面,让用户可以选择在私有或公共环境中部设置 ChatPaper,或在 Hugging Face 上在线体验该项目功能。2. ChatGPT Web 应用自 ChatGPT API 开放后,很多人已经不满足于原有 ChatGPT 的使用,因为原有示例应用响应太慢,运行时常容易中断,并且有一定额度限制,无法随心所欲地使用。如果你已经申请了 ChatGPT API Key,不妨尝试下这个开源的 ChatGPT Web UI 应用:川虎 ChatGPT。该项目为 ChatGPT API 提供了一个 Web 图形界面,在本地部署后,你只需填上自己的 Key,便能直接使用。GitHub:https://github.com/GaiZhenbiao/ChuanhuChatGPT另外,它还提供了诸多功能:像官方客户端那样支持实时显示回答!重试对话,让 ChatGPT 再回答一次。优化 Tokens,减少 Tokens 占用,以支持更长的对话。设置 System Prompt,有效地设定前置条件;保存 / 加载对话历史记录;在图形界面中添加 API key;System Prompt 模板功能;实时显示 Tokens 用量。3. 划词翻译 Chrome 工具在 ChatGPT 诞生之初,由于它具备很好理解上下文、与用户一对一交互的特性,有人便尝试将它用于辅助日常的英语学习与翻译,最后发现效果还出奇的好。今天在这里,接着跟大家推荐一款更新颇为频繁、功能较多的划词翻译工具:OpenAI Translator。AI 智能翻译插件https://www.zhihu.com/video/1621147894865707008GitHub:https://github.com/yetone/openai-translator该工具基于 ChatGPT API 构建,可应用于 Chrome 插件、Windows、macos、Linux 等平台,并支持以下特性:支持三种翻译模式:翻译、润色、总结;支持 55 种语言的相互翻译、润色和总结功能;支持实时翻译、润色和总结,以最快的速度响应用户;支持自定义翻译文本;支持一键复制、支持 TTS。4. 一图生成梦幻房间前不久,我在 GitHub 上看到了一个挺有意思的 GitHub 开源项目:roomGPT。你只需要给你的房间拍一张照,或是房间的 3D 效果图,并将其上传,即可用 AI 生成对应的梦幻房间效果图。AI 自动生成梦幻房间https://www.zhihu.com/video/1621148048117137408GitHub:https://github.com/Nutlope/roomGPT我实际体验了一下,发现直接上传房间的 3D 效果图,效果也非常炸裂!用上这个工具,估计能干掉一波能力平平的家居设计师吧。该工具每天支持上传 3 张图片,生成的效果图支持下载,并应用于室内设计、室内装修等场景,目前已累积生成 78 万张家居效果图。5. ChatGPT 快捷指令昨天有朋友问我:如何提高 ChatGPT 的使用效率,并寻找更多使用场景?我想了一下,ChatGPT 能否被正确使用,关键还是在于用户对提示词(Prompt)的掌握。简单来说,你可以将 Prompt 理解成用户想询问的内容,将内容输入到 ChatGPT 后,ChatGPT 会尝试理解这个输入,然后输出合适的回答或响应。通过优化提示词,可以使 ChatGPT 生成更加准确、有用的回复。也即是说,想让 AI 更好的了解人类意图,便需要写下清晰的,易于理解的问题描述。为了帮助用户实现这一操作,GitHub 上有人开源了一款工具:ChatGPT Shortcut。该项目整理并汇总了多种让生产力加倍的 ChatGPT 快捷指令,按照领域和功能分区,可对提示词(Prompt)进行标签筛选、关键词搜索和一键复制。提示词支持中英文,让你可以跟 ChatGPT 进行两种不同语言的切换对话。GitHub:https://github.com/rockbenben/ChatGPT-Shortcut下次当你打开 ChatGPT,并尝试与之进行互动时,不妨先看看这个工具,或许便能解锁正确的互动方式。文末,照旧安利一波我们的公众号:GitHubDaily,平时主要分享比较实用或有趣的开发工具与 GitHub 开源项目,偶尔也会聊聊技术圈内最近发生的新鲜事,感兴趣的小伙伴可以关注一下~文中所提到的所有开源项目与工具,已收录至 GitHubDaily 的开源项目列表中。该列表包含了 GitHub 上诸多高质量、有趣实用的开源技术教程、开发者工具、编程网站等内容。从 2015 年至今,累积分享 3500+ 个开源项目,有需要的,可访问下方 GitHub 地址自取:GitHub:https://github.com/GitHubDaily/GitHubDaily编辑于 2023-05-06 20:42・IP 属地广东ChatGPTGPT-4开源项目​赞同 608​​18 条评论​分享​喜欢​收藏​申请转载​文章被以下专栏收录GitHubDaily挖掘开源的价值,欢迎关注公众号 & 微博:GitHubDaily慢慢学NLPNLP学习历程AI生产力人工智能生产力提

ChatGPT开源项目手册(01期):1篇万字长文,35个项目 - 少数派

ChatGPT开源项目手册(01期):1篇万字长文,35个项目 - 少数派

PRIMEMatrix栏目Pi Store更多 无需申请,自由写作 任何用户都可使用写作功能。成功发布 3 篇符合基本规则的内容,可成为正式作者。了解更多退出登录反馈PRIMEMatrix栏目Pi Store更多 ChatGPT开源项目手册(01期):1篇万字长文,35个项目主作者关注阿斯酉少数派作者少数派作者 热衷效率工具,关注AI技术。一个试图转行的天气预报员(不是播报 阿斯酉关注阿斯酉少数派作者少数派作者 热衷效率工具,关注AI技术。一个试图转行的天气预报员(不是播报 联合作者关注阿斯酉少数派作者少数派作者 热衷效率工具,关注AI技术。一个试图转行的天气预报员(不是播报 阿斯酉关注阿斯酉少数派作者少数派作者 热衷效率工具,关注AI技术。一个试图转行的天气预报员(不是播报 2023 年 06 月 05 日 上一篇,我们简要介绍了35个标星上万的github开源项目。下面,我将从多维度(摘要、网址、版权、编程语言、简介等)进行介绍。开始吧!一、用户界面与交互聊天机器人界面Chatbot UI摘要 开源的 ChatGPT 用户界面。网址 https://github.com/mckaywrigley/chatbot-ui版权 MIT编程语言 TypeScript简介项目 chatbot-ui 是一个开源的 ChatGPT 用户界面。这个项目的目标是为 AI 模型提供一个聊天界面。以下是这个项目的一些主要功能:一键部署:你可以使用 Vercel 或 Docker 快速部署你自己的聊天机器人用户界面。本地运行:你可以在本地运行这个项目,只需要克隆仓库,安装依赖,提供 OpenAI API 密钥,然后运行应用即可。配置:你可以配置一些环境变量,比如 OpenAI API 密钥、API 主机、API 类型、API 版本、Azure 部署 ID、OpenAI 组织 ID、默认模型、默认系统提示、默认温度、Google API 密钥和 Google CSE ID 等。更新:这个项目会随着时间的推移进行更新,你可以期待频繁的改进。此外,如果你有任何问题,你可以通过 Twitter 联系项目的创建者 Mckay。Chatbox摘要 为 GPT-4 / GPT-3.5(OpenAI API)设计的桌面应用程序网址 https://github.com/Bin-Huang/chatbox版权 GPL-3.0编程语言 TypeScript简介项目 Chatbox 是一个为 GPT-4 / GPT-3.5(OpenAI API)设计的桌面应用程序,支持 Windows,Mac 和 Linux。这个项目的目标是成为你在桌面上的终极副驾驶员,帮助你更好地利用 GPT 的能力。以下是这个项目的一些主要功能:更自由和强大的提示能力:这个项目提供了更自由和强大的提示能力,可以帮助你更好地利用 GPT 的能力。数据本地存储:所有的数据都存储在本地,不会丢失。支持 GPT-4 和其他模型:这个项目支持 GPT-4 和其他模型,可以帮助你处理各种任务。支持自定义域代理:这个项目支持自定义域代理,可以帮助你更好地管理你的网络连接。适合团队协作:这个项目适合团队协作,支持在团队内部分享 OpenAI API 资源。此外,这个项目还提供了一些其他的功能,比如 Markdown 支持、消息引用、单词和令牌估计、夜间模式等。这个项目的用户界面设计符合人体工程学,提供了安装包,无需部署,免费并开源。ChuanhuChatGPT摘要 轻快好用的 Web 图形界面。网址 https://github.com/GaiZhenbiao/ChuanhuChatGPT版权 GPL-3.0编程语言 Python简介项目 ChuanhuChatGPT 是一个为 ChatGPT/ChatGLM/LLaMA/StableLM/MOSS 等多种大型语言模型(LLM)提供了一个轻快好用的 Web 图形界面。这个工具的目标是让你能够轻松地与这些语言模型进行对话。以下是这个项目的一些主要特点:多种模式:ChuanhuChatGPT 提供了多种模式,包括流式传输、无限对话、保存对话、预设 Prompt 集、联网搜索、根据文件回答等。渲染功能:ChuanhuChatGPT 支持渲染 LaTeX 公式、渲染表格、代码高亮等。自适应界面:ChuanhuChatGPT 提供了自适应界面,可以根据你的设备和浏览器自动调整界面。支持多种语言模型:ChuanhuChatGPT 支持多种语言模型,包括 ChatGPT、ChatGLM、LLaMA、StableLM、MOSS 等。自定义 API-Host:你可以在 config.json 文件中设置自定义的 API-Host。此外,这个项目还提供了详细的安装和使用指南,包括如何安装依赖,如何设置 API-Key,如何运行 Web UI 等。ChatGPT Next Web摘要 一键拥有你自己的 ChatGPT 网页服务。网址 https://github.com/Yidadaa/ChatGPT-Next-Web编程语言 TypeScript简介项目 ChatGPT-Next-Web 是一个可以一键部署到 Vercel 上的精心设计的 ChatGPT 网页用户界面。这个项目的目标是让用户能够快速、免费地部署自己的私人 ChatGPT 网页应用。以下是这个项目的一些主要功能:一键部署:你可以在 1 分钟内使用 Vercel 免费一键部署。隐私优先:所有数据都存储在浏览器本地。Markdown 支持:它支持 LaTex、mermaid、代码高亮等 Markdown 功能。响应式设计:它具有响应式设计,支持深色模式和 PWA。快速首屏加载速度:它的首屏加载速度极快(~100kb),支持流式响应。预制角色功能:你可以使用预制角色功能(面具),方便地创建、分享和调试你的个性化对话。此外,这个项目还支持多国语言,并且有详细的开发和部署指南。如果你想要进行二次开发,或者想要将这个项目部署到你自己的服务器上,你都可以在这个项目的文档中找到详细的步骤。代码辅助工具Cursor摘要 让你与 AI 一起编程而设计的编辑器。网址 https://github.com/getcursor/cursor公司 Cursor简介项目 Cursor 是一个为了与 AI 一起编程而设计的编辑器。这个编辑器的目标是帮助开发者更高效地编程。以下是这个项目的一些主要功能:聊天:你可以与一个类似于 ChatGPT 的机器人进行聊天,这个机器人可以看到你当前的文件。编辑:你可以要求 AI 改变一块代码,然后看到编辑的内联差异。调试:你可以将鼠标悬停在语法错误上,自动修复它们。编写:你可以从简短的英文描述生成整个代码库。此外,这个项目还提供了详细的使用指南,包括如何下载和试用这个编辑器。二、内容处理与理解文档处理babyagi摘要 一个 AI 驱动的任务管理系统。网址 https://github.com/yoheinakajima/babyagi版权 MIT编程语言 Python简介项目 babyagi 是一个基于 Python 的开源项目,它是一个 AI 驱动的任务管理系统。这个系统使用 OpenAI 和向量数据库(如 Chroma 或 Weaviate)来创建、优先级排序和执行任务。这个系统的主要思想是基于先前任务的结果和预定义的目标来创建任务。然后,该脚本使用 OpenAI 的自然语言处理(NLP)能力根据目标创建新任务,并使用 Chroma/Weaviate 存储和检索任务结果以获取上下文。以下是这个项目的一些主要功能:任务管理:这个系统可以创建、优先级排序和执行任务,这对于任务管理非常有用。使用 OpenAI 和向量数据库:这个系统使用了 OpenAI 和向量数据库(如 Chroma 或 Weaviate),可以提供高质量的任务管理体验。创建新任务:这个系统可以根据目标和先前任务的结果创建新任务。存储和检索任务结果:这个系统使用 Chroma/Weaviate 存储和检索任务结果,这对于获取任务的上下文非常有用。此外,这个项目还提供了详细的使用指南,包括如何克隆仓库、安装所需的包、设置环境变量、运行脚本等。GPT-4 & LangChain摘要 用于处理大型 PDF 文档的 GPT4 和 LangChain 聊天机器人网址 https://github.com/mayooear/gpt4-pdf-chatbot-langchain编程语言 TypeScript简介项目 gpt4-pdf-chatbot-langchain 是一个开源的项目,用于创建一个可以处理大型 PDF 文件的 GPT-4 和 LangChain 聊天机器人。这个项目的目标是让用户能够通过聊天机器人方便地查询和获取 PDF 文件中的信息。以下是这个项目的一些主要功能:处理大型 PDF 文件:这个项目可以处理多个大型 PDF 文件,将 PDF 文件的内容转化为可以被聊天机器人理解和查询的形式。使用 GPT-4 和 LangChain:这个项目使用了 GPT-4 和 LangChain 这两个强大的 AI 技术,可以提供高质量的聊天体验。使用 Pinecone 存储嵌入:这个项目使用 Pinecone 作为向量存储,用于存储 PDF 文件的嵌入,这样可以在后续的查询中快速地获取相似的文档。开发和运行:这个项目提供了详细的开发和运行指南,包括如何设置环境变量、如何将 PDF 文件转化为嵌入、如何运行应用等。此外,这个项目还提供了一个教程视频,如果你对这个项目感兴趣,你可以观看这个视频来了解更多的信息。privateGPT摘要 通过 GPT 的强大能力,100%私密地与您的文档进行互动,无数据泄漏网址 https://github.com/imartinez/privateGPT版权 Apache-2.0编程语言 Python简介项目 privateGPT 是一个开源的项目,用于创建一个可以在本地环境中与你的文档进行交互的 GPT 聊天机器人。这个项目的目标是让用户能够在保证数据完全私密的情况下,使用 GPT 的能力处理文档。以下是这个项目的一些主要功能:本地处理文档:这个项目可以在本地环境中处理你的文档,无需互联网连接,所有数据都不会离开你的执行环境。使用 GPT 和 LangChain:这个项目使用了 GPT 和 LangChain 这两个强大的 AI 技术,可以提供高质量的聊天体验。处理 PDF 文件:这个项目可以处理多个大型 PDF 文件,将 PDF 文件的内容转化为可以被聊天机器人理解和查询的形式。使用向量数据库:这个项目使用了向量数据库(如 Chroma 或 Weaviate)来存储和检索文档的嵌入,这样可以在后续的查询中快速地获取相似的文档。此外,这个项目还提供了详细的使用指南,包括如何设置环境变量、如何运行脚本等。ChatGPT Retrieval Plugin摘要 帮助你使用自然语言查询来搜索和检索个人或组织的文档。网址 https://github.com/openai/chatgpt-retrieval-plugin版权 MIT公司 OpenAI编程语言 Python简介项目 ChatGPT Retrieval Plugin 是一个插件,它可以帮助你使用自然语言查询来搜索和检索个人或组织的文档。简单来说,你可以像问问题一样来查找你需要的文档或者文档中的内容。以下是这个项目的一些主要功能:自主生成和查询文档嵌入:此插件利用 OpenAI 的文本嵌入模型来创建文档嵌入,并使用后端的向量数据库来储存和查询这些嵌入。这是一个开源的,可自我托管的解决方案。开发者可以部署他们自己的检索插件并将其注册到 ChatGPT。此插件支持多种向量数据库供应商,开发者可以根据他们的需求进行选择。为 ChatGPT 提供记忆功能:这个插件的另一个特性是它可以为 ChatGPT 提供记忆功能。通过使用插件的 upsert 端点,ChatGPT 可以将对话中的片段保存到向量数据库中,以供将来引用(只有在用户提示的情况下)。这一功能使得聊天体验更具上下文意识,因为 ChatGPT 可以记住并检索过去的对话信息。这个插件不仅可以帮助你更方便地搜索和管理你的文档,还可以提升你与 ChatGPT 的互动体验。openai-translator摘要 基于 ChatGPT API 的划词翻译浏览器插件和跨平台桌面端应用网址 https://github.com/openai-translator/openai-translator版权 AGPL-3.0公司 openai-translator编程语言 TypeScript简介项目 openai-translator 是一个基于 ChatGPT API 的划词翻译浏览器插件和跨平台桌面端应用。这个项目的目标是让用户能够方便地进行划词翻译和全文翻译。以下是这个项目的一些主要功能:划词翻译:你可以在浏览器中划选文本,然后使用这个插件进行翻译。全文翻译:你可以使用这个插件进行全文翻译,这对于阅读外语文章非常有用。跨平台桌面端应用:这个项目不仅是一个浏览器插件,还是一个跨平台的桌面端应用,你可以在 Windows、macOS 和 Linux 上使用这个应用。支持多种语言:这个项目支持多种语言的翻译,可以满足不同用户的需求。使用 OpenAI API:这个项目使用了 OpenAI API,可以提供高质量的翻译结果。此外,这个项目还提供了详细的使用指南,包括如何安装和配置这个插件,如何使用这个插件进行翻译等。论文阅读GPT 学术优化 (GPT Academic)摘要 为 GPT/GLM 提供图形交互界面,特别优化论文阅读润色体验。网址 https://github.com/binary-husky/gpt_academic版权 GPL-3.0编程语言 Python简介项目 gpt_academic,是由 GitHub 用户 binary-husky 创建的。它的主要目标是为 ChatGPT/GLM 提供一个图形交互界面,特别优化了论文阅读和润色的体验。这个项目的设计是模块化的,支持自定义快捷按钮和函数插件。以下是这个项目的一些主要功能:代码块和表格显示:它可以显示代码块和表格,这对于理解和分析代码非常有用。TeX 公式双显示:它可以同时显示 TeX 公式的原始形式和渲染形式,这对于理解和使用数学公式非常有用。项目剖析和自译解:它可以剖析 Python 和 C++ 等项目,并提供自译解功能,这对于理解和学习代码非常有用。论文翻译和总结:它可以翻译和总结 PDF/LaTex 论文,这对于理解和学习论文非常有用。并行问询多种 LLM 模型:它支持并行问询多种大型语言模型,这可以提高问询的效率和质量。支持本地模型:它支持清华大学的 chatglm 等本地模型,这可以提高模型的访问速度和稳定性。此外,这个项目还兼容复旦大学的 MOSS,llama,rwkv,盘古,newbing,claude 等其他模型和工具。ChatPaper摘要 使用 ChatGPT 来总结 arXiv 上的论文。网址 https://github.com/kaixindelele/ChatPaper编程语言 Python简介项目 ChatPaper 使用 ChatGPT 来总结 arXiv 上的论文。该项目的目标是全流程加速科研,包括论文总结、润色、审稿和审稿回复。ChatPaper 提供了一系列工具,包括:ChatPaper:通过 ChatGPT 实现对论文进行总结,帮助科研人进行论文初筛。ChatReviewer:利用 ChatGPT 对论文进行优缺点分析,提出改进建议。ChatImprovement:利用 ChatGPT 对论文初稿进行润色、翻译等。ChatResponse:利用 ChatGPT 对审稿人的提问进行回复。ChatGenTitle:利用百万 arXiv 论文元信息训练出来的论文题目生成模型,根据论文摘要生成合适题目。这些工具都是免费的,代码开源,大家可以放心使用。关于 API 如何获取,首先你得有一个没有被封的 ChatGPT 账号,然后获取 Api Key,填入即可。此外,该项目还提供了一些使用技巧,包括:快速刷特定关键词的论文,每篇文章需要花一分钟,阅读时间差不多一分钟。跟踪领域最新论文,或者关注其他领域的论文,可以批量生成总结,最大可生成 1000 篇(如果你能等得及的话)。虽然 Chat 可能有瞎编的成分,但是在规范化提问的框架下,它的主要信息是保熟的。数字部分需要大家重新去原文检查。找到好的文章之后,可以精读这篇文章。项目还提供了详细的使用步骤和常见报错解决方案,方便用户使用。图像处理DragGAN摘要 用于实现在生成图像流形上的交互式点基操作。网址 https://github.com/XingangPan/DragGAN简介项目 DragGAN 是一个开源的项目,用于实现在生成图像流形上的交互式点基操作(Interactive Point-based Operations)。这个项目的目标是让用户能够通过拖拽操作直接在生成图像流形上进行编辑。以下是这个项目的一些主要功能:交互式操作:你可以通过拖拽操作直接在生成图像流形上进行编辑。生成图像流形:这个项目的核心是生成图像流形,这是一种可以生成各种各样的图像的数学结构。SIGGRAPH 2023:这个项目的代码将在 2023 年的 SIGGRAPH 会议上发布。此外,这个项目还提供了一个 GIF 动画,展示了如何通过拖拽操作直接在生成图像流形上进行编辑。Segment Anything摘要 提供了使用 SegmentAnything 模型(SAM)进行推理的代码。网址 https://github.com/facebookresearch/segment-anything版权 Apache-2.0公司 Meta Research编程语言 Jupyter Notebook简介项目 Segment Anything 是由 Facebook AI Research (FAIR) 开发的一个模型,它可以根据输入的提示(如点或框)生成高质量的对象掩膜,也可以用于生成图像中所有对象的掩膜。这个模型被训练在一个包含 11 百万图像和 11 亿掩膜的数据集上,对各种分割任务有很强的零样本性能。以下是这个项目的一些主要功能:生成对象掩膜:这个模型可以根据输入的提示(如点或框)生成高质量的对象掩膜,也可以用于生成图像中所有对象的掩膜。强大的零样本性能:这个模型被训练在一个包含 11 百万图像和 11 亿掩膜的数据集上,对各种分割任务有很强的零样本性能。模型检查点:这个项目提供了模型检查点的下载链接,你可以下载这些检查点来使用这个模型。ONNX 导出:这个模型的轻量级掩膜解码器可以被导出为 ONNX 格式,这样就可以在任何支持 ONNX 运行时的环境中运行,比如在浏览器中。此外,这个项目还提供了详细的使用指南,包括如何安装和使用这个模型,如何导出 ONNX 模型,如何使用命令行生成掩膜等。语音处理Bark摘要 基于 Transformer 的文本到音频模型。网址 https://github.com/suno-ai/bark版权 MIT公司 Suno编程语言 Jupyter Notebook简介项目 bark 是由 Suno 创建的一个基于 Transformer 的文本到音频模型。这个模型可以生成非常逼真的多语言语音,以及其他音频,包括音乐、背景噪音和简单的音效。模型还可以产生非语言的交流方式,如笑声、叹息和哭声。以下是这个项目的一些主要功能:生成音频:它可以从文本生成音频,这对于语音合成非常有用。支持多种语言:它支持多种语言,并能自动从输入文本中确定语言。音乐生成:它可以生成所有类型的音频,包括音乐。语音预设:它支持 100 多种语音预设,跨越支持的语言。生成更长的音频:默认情况下,generate_audio 函数可以很好地处理大约 13 秒的口语文本。此外,这个项目还提供了一个命令行界面,可以通过命令行生成音频。SoftVC VITS摘要 歌唱声音转换模型。网址 https://github.com/svc-develop-team/so-vits-svc版权 BSD-3-Clause公司 MoeVoiceConversion编程语言 Python简介项目 SoftVC VITS 是一个歌唱声音转换模型,使用 SoftVC 内容编码器提取源音频的语音特征,然后将这些向量直接输入到 VITS 中,而不是转换为基于文本的中间形式,从而保留了音高和语调。声码器被改为 NSF HiFiGAN,以解决声音中断的问题。这个项目的目标是让开发者喜欢的动漫角色能够唱歌,任何涉及真人的事情都是偏离开发者意图的。这个项目是一个开源的、离线的项目,所有的功能都需要用户自己训练模型。三、语言模型与平台Alpaca-LoRA摘要 在消费级硬件上进行指令调整的 LLaMA 模型。网址 https://github.com/tloen/alpaca-lora版权 Apache-2.0编程语言 Jupyter Notebook简介项目 alpaca-lora 是一个开源的项目,用于在消费级硬件上进行指令调整的 LLaMA 模型。这个项目的目标是提供一个与 text-davinci-003 类似质量的 Instruct 模型,可以在树莓派(用于研究)上运行,代码也可以轻松扩展到 13b、30b 和 65b 的模型。以下是这个项目的一些主要功能:训练代码:提供了训练代码,可以在单个 RTX 4090 上在几小时内运行。下载和推理:提供了一个脚本,用于下载和推理基础模型和 LoRA,以及 LoRA 权重本身。微调:为了便宜和高效地微调,他们使用了 Hugging Face 的 PEFT 和 Tim Dettmers 的 bitsandbytes。本地设置:提供了详细的本地设置和训练指南。推理:提供了一个文件,该文件从 Hugging Face 模型中心读取基础模型和 LoRA 权重,并在指定的输入上运行 Gradio 接口进行推理。此外,这个项目还提供了 Docker 设置和推理的指南,如果你想要在 Docker 中运行这个项目,你可以参考这些指南。ChatGLM-6B摘要 开源双语对话语言模型。网址 https://github.com/THUDM/ChatGLM-6B版权 Apache-2.0公司 THUDM编程语言 Python简介项目 ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。这个模型使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。以下是这个项目的一些主要特点:双语支持:ChatGLM-6B 支持中英双语,经过约 1T 标识符的中英双语训练,可以生成符合人类偏好的回答。模型量化技术:结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。参数微调:为了方便下游开发者针对自己的应用场景定制模型,项目同时实现了基于 P-Tuning v2 的高效参数微调方法。开源社区合作:ChatGLM-6B 开源模型旨在与开源社区一起推动大模型技术发展,恳请开发者和大家遵守开源协议。安全性:尽管模型在训练的各个阶段都尽力确保数据的合规性和准确性,但由于 ChatGLM-6B 模型规模较小,且模型受概率随机性因素影响,无法保证输出内容的准确性,且模型易被误导。ChatGLM-6B 是一个强大的对话语言模型,它可以帮助你进行中英双语的对话,同时也提供了一些高级功能,如模型量化和参数微调,使得你可以根据自己的需求来定制模型。Dolly摘要 由 Databricks 开发的大型语言模型。网址 https://github.com/databrickslabs/dolly版权 Apache-2.0公司 Databricks Labs编程语言 Python简介项目 Dolly 是一个由 Databricks 开发的大型语言模型,基于 Databricks 机器学习平台进行训练,可以用于商业用途。Dolly 模型基于 pythia-12b,经过约 15k 条由 Databricks 员工生成的指令/响应微调记录进行训练,这些记录涵盖了 InstructGPT 论文中的多个能力领域,包括头脑风暴、分类、封闭 QA、生成、信息提取、开放 QA 和摘要等。尽管 Dolly v2-12b 并不是最先进的模型,但它展示出了令人惊讶的高质量指令执行行为,这是其基础模型所不具备的。Dolly 模型的主要特点包括:指令执行:Dolly 模型可以理解和执行用户的指令,这使得它可以在聊天中帮助用户完成各种任务。两阶段训练:Dolly 模型的训练包括两个阶段。第一阶段是预训练阶段,使用大约 500 万个图像-文本对进行训练。第二阶段是微调阶段,使用一个小而高质量的数据集进行训练,以提高生成的可靠性和整体可用性。安装和使用:这个项目提供了详细的安装和使用指南,包括如何开始使用这个项目,如何设置环境变量和 API 密钥,如何设置数据库,如何设置后端和前端等。Dolly 是一个强大的语言模型,它可以帮助你更好地理解和执行各种指令。gpt4free摘要 去中心化 AI 行业,提供多个反向工程的语言模型 API。网址 https://github.com/xtekky/gpt4free版权 GPL-3.0编程语言 Python简介项目 gpt4free 的目标是去中心化 AI 行业,提供多个反向工程的语言模型 API。它包括了多个反向工程的语言模型 API,如 GPT-4、GPT-3.5 等。这个项目的目标是去中心化 AI 行业,使得更多的人可以自由地使用这些强大的语言模型。这个项目的主要功能包括:提供了多个反向工程的语言模型 API,如 GPT-4、GPT-3.5 等。提供了一个 GUI,使得用户可以更方便地使用这些 API。提供了 Docker 支持,用户可以使用 Docker 来运行这个项目。提供了详细的安装和使用指南,包括如何安装依赖,如何设置代理,如何使用 GUI,如何使用 Docker 等。这个项目是一个强大的工具,可以帮助你更方便地使用各种语言模型。llama.cpp摘要 将 Facebook 的 LLaMA 模型移植到 C/C++网址 https://github.com/ggerganov/llama.cpp版权 MIT编程语言 C简介项目 llama.cpp 是 Facebook 的 LLaMA 模型的 C/C++ 实现。以下是一些关于这个项目的主要信息:项目的主要目标是在 MacBook 上使用 4 位整数量化运行 LLaMA 模型。它是一个纯 C/C++ 实现,没有依赖项。优化了 Apple silicon,通过 ARM NEON 和 Accelerate 框架进行优化。在 CPU 上运行。支持 OpenBLAS/Apple BLAS/ARM Performance Lib/ATLAS/BLIS/Intel MKL/NVHPC/ACML/SCSL/SGIMATH 等在 BLAS 中的更多内容。支持 cuBLAS 和 CLBlast。这个项目最初在一个晚上被快速实现,但由于许多贡献,现在已经有了显著的改进。这个项目主要用于教育目的,并作为为 ggml 库开发新功能的主要场所。支持的平台包括 Mac OS、Linux、Windows(通过 CMake)和 Docker。支持的模型包括 LLaMA、Alpaca、GPT4All、Chinese LLaMA / Alpaca、Vigogne(法语)、Vicuna、Koala、OpenBuddy(多语言)、Pygmalion 7B / Metharme 7B 和 WizardLM。此外,还提供了 Python、Go、Node.js、Ruby 和 C#/。NET 的绑定。MiniGPT-4摘要 通过先进的大型语言模型增强视觉语言理解。网址 https://github.com/Vision-CAIR/MiniGPT-4版权 BSD-3-Clause公司 Vision CAIR Research Group, KAUST编程语言 Python简介项目 MiniGPT-4 是一个开源的视觉-语言理解模型,它使用了先进的大型语言模型来增强视觉-语言理解能力。这个模型使用了 Vicuna 语言模型,并使用了一种名为 BLIP-2 的视觉编码器。以下是这个项目的一些主要特点:视觉-语言理解:MiniGPT-4 可以理解和生成关于图像的描述,这使得它可以在聊天中谈论你的图像。两阶段训练:MiniGPT-4 的训练包括两个阶段。第一阶段是预训练阶段,使用大约 500 万个图像-文本对进行训练。第二阶段是微调阶段,使用一个小而高质量的数据集进行训练,以提高生成的可靠性和整体可用性。安装和使用:这个项目提供了详细的安装和使用指南,包括如何准备代码和环境,如何准备预训练的 Vicuna 权重,如何准备预训练的 MiniGPT-4 检查点,如何在本地启动演示,如何进行训练等。MiniGPT-4 是一个强大的视觉-语言理解模型,它可以帮助你更好地理解和生成关于图像的描述。MOSS摘要 来自复旦大学的开源工具增强对话式语言模型网址 https://github.com/OpenLMLab/MOSS版权 Apache-2.0公司 OpenLMLab编程语言 Python简介项目 MOSS 是一个开源的多目标优化算法库。这个库的目标是为研究者和工程师提供一个方便的平台,以便他们可以更容易地实现和比较多目标优化算法。这个库包括以下几个部分:算法:包括经典的多目标优化算法,如 NSGA-II、NSGA-III、MOEA/D 等,以及一些最新的算法。问题:包括许多经典的测试问题,如 ZDT、DTLZ、WFG 等。度量:包括一些常用的多目标优化度量,如 IGD、HV 等。可视化:提供了一些可视化工具,以便用户可以更直观地理解和比较算法的性能。并行计算:支持并行计算,以提高算法的运行效率。这个库是用 Python 编写的,使用了 PyTorch 框架。StableLM: Stability AI Language Models摘要 由 Stability AI 开发的一系列语言模型。网址 https://github.com/Stability-AI/StableLM版权 Apache-2.0公司 Stability AI编程语言 Jupyter Notebook简介项目 StableLM 是由 Stability AI 开发的一系列语言模型,这些模型的目标是提供稳定的 AI 语言模型。这个项目将持续更新新的检查点。以下是这个项目的一些主要功能:StableLM 语言模型:这个项目包含了 Stability AI 的 StableLM 语言模型,这些模型可以处理各种任务。新的数据集:这个项目使用了新的数据集,这个数据集基于 The Pile,包含了 1.5 万亿个令牌,大约是 The Pile 大小的 3 倍。微调模型:这个项目还包含了微调模型,这些模型使用了 Stanford Alpaca 的过程,以及五个最近的对话代理数据集。模型规模:这个项目包含了不同规模的模型,包括 3B、7B、15B、30B、65B 和 175B。此外,这个项目还提供了详细的快速启动指南,包括如何使用 Hugging Face hub 上的 StableLM 模型,如何使用代码片段开始与 StableLM-Tuned-Alpha 聊天等。Stanford Alpaca: An Instruction-following LLaMA Model摘要 用于训练斯坦福的 Alpaca 模型和生成数据的代码和文档。网址 https://github.com/tatsu-lab/stanford_alpaca版权 Apache-2.0公司 Tatsu's shared repositories编程语言 Python简介项目 stanford_alpaca 是由 Stanford University 的 Tatsu Lab 开源的项目,它的目标是构建和分享一个能够遵循指令的 LLaMA 模型。这个项目包含了用于微调模型的 52K 数据,生成数据的代码,微调模型的代码,以及从发布的权重差异中恢复 Alpaca-7B 权重的代码。以下是这个项目的一些主要功能:遵循指令的 LLaMA 模型:这个项目旨在构建和分享一个能够遵循指令的 LLaMA 模型,这个模型可以处理各种任务。数据和代码:这个项目包含了用于微调模型的 52K 数据,生成数据的代码,微调模型的代码,以及从发布的权重差异中恢复 Alpaca-7B 权重的代码。权重恢复:这个项目提供了从发布的权重差异中恢复 Alpaca-7B 权重的方法,你可以使用这个方法来获取 Alpaca-7B 的权重。此外,这个项目还提供了详细的使用指南,包括如何运行代码,如何微调模型,如何处理内存溢出问题,如何恢复 Alpaca 权重等。AI 助手/平台Auto-GPT: An Autonomous GPT-4 Experiment摘要 一个试图使 GPT-4 完全开源的实验性项目。网址 https://github.com/Significant-Gravitas/Auto-GPT版权 MIT公司 Significant Gravitas编程语言 Python简介项目 Auto-GPT 是一个开源的实验项目,旨在使 GPT-4 完全自主。这个程序由 GPT-4 驱动,将 LLM "思考"链接在一起,自主地实现你设定的任何目标。作为 GPT-4 完全自主运行的首个例子之一,Auto-GPT 推动了 AI 可能性的边界。以下是这个项目的一些主要特点:互联网访问:用于搜索和信息收集。长期和短期记忆管理:帮助 AI 更好地理解和执行任务。GPT-4 实例:用于文本生成。访问流行的网站和平台:使 AI 可以获取更多的信息和资源。文件存储和总结:使用 GPT-3.5 来存储和总结文件。插件扩展性:你可以安装插件来增强 Auto-GPT 的功能。此外,这个项目还提供了详细的安装和使用指南,包括如何开始使用这个项目,如何获取 OpenAI API 密钥,如何下载最新的发布版本,如何安装和配置插件等。AgentGPT摘要 在浏览器中组装、配置和部署自主 AI 代理的开源项目。网址 https://github.com/reworkd/AgentGPT版权 GPL-3.0公司 Reworkd.ai编程语言 TypeScript简介项目 AgentGPT 是一个开源的平台,允许你在浏览器中组装、配置和部署自主的 AI 代理。你可以为你的自定义 AI 命名,并让它开始执行任何你可以想象的目标。AI 代理将通过思考要执行的任务、执行它们并从结果中学习来尝试达到目标。以下是这个项目的一些主要特点:自主的 AI 代理:你可以在浏览器中组装、配置和部署自主的 AI 代理。自定义 AI:你可以为你的自定义 AI 命名,并让它开始执行任何你可以想象的目标。学习和执行任务:AI 代理将通过思考要执行的任务、执行它们并从结果中学习来尝试达到目标。技术栈:这个项目使用了一系列的技术,包括 Nextjs 13、Typescript、FastAPI、Next-Auth.js、Prisma & SQLModel、Planetscale、TailwindCSS + HeadlessUI、Zod + Pydantic 和 Langchain。此外,这个项目还提供了详细的使用指南,包括如何开始使用这个项目,如何设置环境变量和 API 密钥,如何设置数据库,如何设置后端和前端等。GPT4All摘要 一个生态系统,训练于大量干净助手数据的开源聊天机器人集合,包括代码、故事和对话。网址 https://github.com/nomic-ai/gpt4all版权 MIT公司 Nomic AI编程语言 Python简介项目 gpt4all 是一个开源的生态系统,用于训练和部署在消费级 CPU 上本地运行的强大和定制的大型语言模型。这个生态系统的目标很简单 - 成为任何个人或企业都可以自由使用、分发和构建的最好的指令调整助手式语言模型。以下是这个项目的一些主要功能:本地运行:你可以在你的家用桌面上本地运行任何 GPT4All 模型。多种语言绑定:它提供了 Python、Typescript、GoLang 和 C#### 的官方绑定。贡献:GPT4All 欢迎开源社区的贡献、参与和讨论。技术报告:他们提供了关于 GPT4All 的技术报告。此外,如果你在下游项目中使用了这个仓库、模型或数据,他们希望你能引用它。FastChat摘要 用于训练、提供服务和评估大型语言模型的开放平台。网址 https://github.com/lm-sys/FastChat版权 Apache-2.0公司 LMSYS编程语言 Python简介项目 FastChat 是一个开放平台,用于训练、服务和评估大型语言模型,特别是基于聊天机器人的模型。它的核心功能包括:提供了一些最新的模型(如 Vicuna, FastChat-T5)的权重、训练代码和评估代码。提供了一个分布式的多模型服务系统,包括 Web UI 和与 OpenAI 兼容的 RESTful API。介绍了一些新的功能和发布,如 Chatbot Arena,这是一个让大型语言模型进行对战的平台。此外,这个项目还提供了详细的安装和使用指南,包括如何使用命令行接口进行推理,如何使用 Web GUI 进行服务,如何使用 API,如何进行评估和微调等。JARVIS摘要 由微软开发的一个系统,用于将大型语言模型(LLMs)与机器学习社区连接起来。Paper: https://arxiv.org/pdf/2303.17580.pdf网址 https://github.com/microsoft/JARVIS简介项目 JARVIS 是由微软开发的一个系统,用于将大型语言模型(LLMs)与机器学习社区连接起来。这个项目的目标是通过语言作为接口,将大量的 AI 模型连接起来,以解决复杂的 AI 任务。以下是这个项目的一些主要功能:任务规划:使用 ChatGPT 来分析用户的请求,理解他们的意图,并将它们拆解成可能的可解决的任务。模型选择:为了解决计划的任务,ChatGPT 根据它们的描述选择在 Hugging Face 上托管的专家模型。任务执行:调用并执行每个选定的模型,并将结果返回给 ChatGPT。响应生成:最后,使用 ChatGPT 集成所有模型的预测,并生成响应。此外,这个项目还提供了详细的使用指南,包括如何设置环境变量、如何运行脚本等。TaskMatrix摘要 由 Microsoft 开源的项目,它将 ChatGPT 和一系列的视觉基础模型连接起来。网址 https://github.com/microsoft/TaskMatrix版权 MIT公司 Microsoft编程语言 Python简介项目 TaskMatrix 是一个由 Microsoft 开源的项目,它将 ChatGPT 和一系列的视觉基础模型连接起来,使得在聊天过程中可以发送和接收图像。这个项目的目标是通过利用 ChatGPT 的广泛理解和视觉基础模型的深度知识,构建一个能够处理各种任务的 AI。以下是这个项目的一些主要功能:连接 ChatGPT 和视觉基础模型:这个项目将 ChatGPT 和一系列的视觉基础模型连接起来,可以在聊天过程中发送和接收图像。处理各种任务:这个项目可以处理各种任务,包括图像编辑、图像生成、图像描述、图像到线条的转换、线条到图像的转换、图像到边缘检测的转换、边缘检测到图像的转换、图像到涂鸦的转换、涂鸦到图像的转换、图像到姿势的转换、姿势到图像的转换、图像到分割的转换、分割到图像的转换、图像到深度的转换、深度到图像的转换、图像到法线的转换、法线到图像的转换、视觉问题回答等。模板:这个项目提出了模板的概念,模板是一个预定义的执行流程,可以帮助 ChatGPT 组装涉及多个基础模型的复杂任务。此外,这个项目还提供了详细的快速启动指南,包括如何克隆仓库、安装所需的包、设置环境变量、启动 TaskMatrix 等。Dalai摘要 让你可以在本地机器上运行 LLaMA 和 Alpaca。网址 https://github.com/cocktailpeanut/dalai编程语言 CSS简介项目 Dalai 是一个简单的工具,使你能够在本地机器上运行 LLaMA 和 Alpaca。这个项目的目标是让你能够轻松地在你的电脑上运行这两个强大的语言模型。以下是这个项目的一些主要特点:跨平台:Dalai 可以在 Linux、Mac 和 Windows 等所有主流操作系统上运行。内存需求:只要你的电脑不是非常旧,Dalai 应该可以在上面运行。具体的内存需求取决于你要运行的模型的大小。磁盘空间需求:Alpaca 和 LLaMA 模型需要大量的磁盘空间。具体的磁盘空间需求取决于你要安装的模型的大小。快速开始:这个项目提供了详细的安装和使用指南,包括如何安装依赖,如何安装模型,如何运行 Web UI 等。API:Dalai 也是一个 NPM 包,你可以使用它来编程安装模型,本地请求模型,运行 Dalai 服务器,编程请求远程 Dalai 服务器等。这个项目是一个强大的工具,可以帮助你更方便地使用 LLaMA 和 Alpaca 这两个强大的语言模型。其他Mr. Ranedeer AI Tutor程序员 Jush摘要 基于 GPT-4 的 AI 辅导工具,提供了个性化的学习体验。网址 https://github.com/JushBJJ/Mr.-Ranedeer-AI-Tutor简介项目 Mr。 Ranedeer AI Tutor 是一个基于 GPT-4 的 AI 辅导工具,提供了个性化的学习体验。你可以根据自己的需求和兴趣定制学习体验。以下是这个项目的一些主要特点:个性化学习:你可以调整知识深度以匹配你的学习需求,定制你的学习风格、沟通方式、语气和推理框架,创建专为你量身定制的最佳 AI 辅导员。命令支持:AI 辅导员支持多种命令,如请求测试以评估你的知识和理解,更新你的 AI 辅导员配置/偏好,创建基于你的偏好的课程计划,搜索特定信息等。多语言支持:通过编辑 Mr Ranedeer 文件或使用 /language [lang] 命令,你可以改变 Mr Ranedeer 对你说的语言。适用性:推荐使用 ChatGPT Plus 订阅并配合 GPT-4 或以上模型使用。不推荐使用 GPT-3.5 或 GPT-4 API(成本较高)。这个项目是一个强大的学习工具,可以帮助你更好地学习和理解各种知识。Twitter's Recommendation Algorithm摘要 Twitter 的推荐算法的源代码。网址 https://github.com/twitter/the-algorithm版权 AGPL-3.0公司 Twitter编程语言 Scala简介项目 The Algorithm 是 Twitter 的推荐算法的源代码。这个算法是一套服务和任务,负责在所有 Twitter 产品表面(例如,为你的时间线、搜索、探索、通知)提供推文和其他内容的推送。以下是这个项目的一些主要特点:推荐算法:Twitter 的推荐算法可以为用户提供个性化的推文和其他内容。多种组件:这个项目包括了多种组件,包括数据处理、模型训练、软件框架等。产品表面:这个项目目前包括了为你的时间线和推荐通知两个产品表面。开源:Twitter 的推荐算法是开源的,这意味着任何人都可以查看和修改这个算法的源代码。贡献:Twitter 邀请社区提交 GitHub 问题和拉取请求,以提出对推荐算法的改进建议。他们正在开发工具来管理这些建议,并将更改同步到他们的内部存储库。这个项目是一个强大的推荐系统,它可以帮助 Twitter 提供个性化的推文和其他内容。carrot摘要 众多免费好用的 ChatGPT 镜像站点,当前 100+站点网址 https://github.com/xx025/carrot简介项目 Carrot 是一个免费的 ChatGPT 站点列表。这个项目的目标是为用户提供大量的免费和好用的 ChatGPT 镜像站点,目前已经收录了 100+站点。这个列表包含了各种各样的 ChatGPT 站点,每个站点都有详细的描述和链接,方便用户直接访问。这些站点包括 Poe.com、Theb.ai、Jinshutuan.com、Anzz.top、Ai-node.com、Gptforlove.com、Newstop.asia、Chatgptdddd.com、Xjai.cc、Chatplus.plus、20200.cn、Aidutu.cn、Promptboom.com、Aiyunos.top、Infiniteai.chat、Qdymys.cn、Kebakeba.com、Betai55.uk、T66.ltd、Character.ai、Peo.icu、Gpt90.com、Cytsee.com、Skybyte.me、Bnu120.space、Nb8.ltd、Xiami.monster、Aichatos.top、Cutim.top、Dreamtrend.net、Scorpii.net、Forwardminded.xyz、Ailake.top、Hz-it-dev.com、154.12.55.27、1ai.fun、Gpt6.lol、Xboat.cc 等等。每个站点都有一些标注,比如 "使用稳定,推荐"、"最近更新"、"免费使用"、"需要登陆或密码"、"需国际网络进行访问" 等等,这些标注可以帮助用户快速了解每个站点的特点和使用条件。这个项目是开源的,任何人都可以参与到这个项目中来,分享站点、报告站点失效、标注错误等等。这个项目的目标是为用户提供最全面、最准确、最实用的 ChatGPT 站点列表。注意,现在有广告,请注意甄别。后记35个项目,圆满结束。你可以先阅读这份介绍,之后期待详细的项目实践!对了,欢迎交流和反馈哦~365扫码分享 36 等 36 人为本文章充电 扫码分享

举报本文章

举报 阿斯酉少数派作者

热衷效率工具,关注AI技术。一个试图转行的天气预报员(不是播报

关注

全部评论(5)

请在登录后评论...

更多

推荐阅读

App 内打开 请绑定手机号码取消 前往绑定 关注公众号 sspaime 下载 App 联系我们 商务合作 关于我们 用户协议 常见问题 © 2013-2024 少数派 | 粤ICP备09128966号-4 | 粤B2-20211534© 2013-2024 少数派粤ICP备09128966号-4 | 粤B2-20211534 确定

GitHub - ChatGPTNextWeb/ChatGPT-Next-Web: A cross-platform ChatGPT/Gemini UI (Web / PWA / Linux / Win / MacOS). 一键拥有你自己的跨平台 ChatGPT/Gemini 应用。

GitHub - ChatGPTNextWeb/ChatGPT-Next-Web: A cross-platform ChatGPT/Gemini UI (Web / PWA / Linux / Win / MacOS). 一键拥有你自己的跨平台 ChatGPT/Gemini 应用。

Skip to content

Toggle navigation

Sign in

Product

Actions

Automate any workflow

Packages

Host and manage packages

Security

Find and fix vulnerabilities

Codespaces

Instant dev environments

Copilot

Write better code with AI

Code review

Manage code changes

Issues

Plan and track work

Discussions

Collaborate outside of code

Explore

All features

Documentation

GitHub Skills

Blog

Solutions

For

Enterprise

Teams

Startups

Education

By Solution

CI/CD & Automation

DevOps

DevSecOps

Resources

Learning Pathways

White papers, Ebooks, Webinars

Customer Stories

Partners

Open Source

GitHub Sponsors

Fund open source developers

The ReadME Project

GitHub community articles

Repositories

Topics

Trending

Collections

Pricing

Search or jump to...

Search code, repositories, users, issues, pull requests...

Search

Clear

Search syntax tips

Provide feedback

We read every piece of feedback, and take your input very seriously.

Include my email address so I can be contacted

Cancel

Submit feedback

Saved searches

Use saved searches to filter your results more quickly

Name

Query

To see all available qualifiers, see our documentation.

Cancel

Create saved search

Sign in

Sign up

You signed in with another tab or window. Reload to refresh your session.

You signed out in another tab or window. Reload to refresh your session.

You switched accounts on another tab or window. Reload to refresh your session.

Dismiss alert

ChatGPTNextWeb

/

ChatGPT-Next-Web

Public

Notifications

Fork

52.6k

Star

63.6k

A cross-platform ChatGPT/Gemini UI (Web / PWA / Linux / Win / MacOS). 一键拥有你自己的跨平台 ChatGPT/Gemini 应用。

app.nextchat.dev/

License

MIT license

63.6k

stars

52.6k

forks

Branches

Tags

Activity

Star

Notifications

Code

Issues

149

Pull requests

68

Discussions

Actions

Projects

1

Security

Insights

Additional navigation options

Code

Issues

Pull requests

Discussions

Actions

Projects

Security

Insights

ChatGPTNextWeb/ChatGPT-Next-Web

This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.

 mainBranchesTagsGo to fileCodeFolders and filesNameNameLast commit messageLast commit dateLatest commit History1,781 Commits.github.github  .husky.husky  appapp  docsdocs  publicpublic  scriptsscripts  src-taurisrc-tauri  .babelrc.babelrc  .dockerignore.dockerignore  .env.template.env.template  .eslintignore.eslintignore  .eslintrc.json.eslintrc.json  .gitignore.gitignore  .gitpod.yml.gitpod.yml  .lintstagedrc.json.lintstagedrc.json  .prettierrc.js.prettierrc.js  CODE_OF_CONDUCT.mdCODE_OF_CONDUCT.md  DockerfileDockerfile  LICENSELICENSE  README.mdREADME.md  README_CN.mdREADME_CN.md  docker-compose.ymldocker-compose.yml  next.config.mjsnext.config.mjs  package.jsonpackage.json  tsconfig.jsontsconfig.json  vercel.jsonvercel.json  yarn.lockyarn.lock  View all filesRepository files navigationREADMECode of conductMIT license

NextChat (ChatGPT Next Web)

English / 简体中文

One-Click to get a well-designed cross-platform ChatGPT web UI, with GPT3, GPT4 & Gemini Pro support.

一键免费部署你的跨平台私人 ChatGPT 应用, 支持 GPT3, GPT4 & Gemini Pro 模型。

Web App / Desktop App / Discord / Twitter

网页版 / 客户端 / 反馈

Features

Deploy for free with one-click on Vercel in under 1 minute

Compact client (~5MB) on Linux/Windows/MacOS, download it now

Fully compatible with self-deployed LLMs, recommended for use with RWKV-Runner or LocalAI

Privacy first, all data is stored locally in the browser

Markdown support: LaTex, mermaid, code highlight, etc.

Responsive design, dark mode and PWA

Fast first screen loading speed (~100kb), support streaming response

New in v2: create, share and debug your chat tools with prompt templates (mask)

Awesome prompts powered by awesome-chatgpt-prompts-zh and awesome-chatgpt-prompts

Automatically compresses chat history to support long conversations while also saving your tokens

I18n: English, 简体中文, 繁体中文, 日本語, Français, Español, Italiano, Türkçe, Deutsch, Tiếng Việt, Русский, Čeština, 한국어, Indonesia

Roadmap

System Prompt: pin a user defined prompt as system prompt #138

User Prompt: user can edit and save custom prompts to prompt list

Prompt Template: create a new chat with pre-defined in-context prompts #993

Share as image, share to ShareGPT #1741

Desktop App with tauri

Self-host Model: Fully compatible with RWKV-Runner, as well as server deployment of LocalAI: llama/gpt4all/rwkv/vicuna/koala/gpt4all-j/cerebras/falcon/dolly etc.

Plugins: support network search, calculator, any other apis etc. #165

What's New

v2.10.1 support Google Gemini Pro model.

v2.9.11 you can use azure endpoint now.

v2.8 now we have a client that runs across all platforms!

v2.7 let's share conversations as image, or share to ShareGPT!

v2.0 is released, now you can create prompt templates, turn your ideas into reality! Read this: ChatGPT Prompt Engineering Tips: Zero, One and Few Shot Prompting.

主要功能

在 1 分钟内使用 Vercel 免费一键部署

提供体积极小(~5MB)的跨平台客户端(Linux/Windows/MacOS), 下载地址

完整的 Markdown 支持:LaTex 公式、Mermaid 流程图、代码高亮等等

精心设计的 UI,响应式设计,支持深色模式,支持 PWA

极快的首屏加载速度(~100kb),支持流式响应

隐私安全,所有数据保存在用户浏览器本地

预制角色功能(面具),方便地创建、分享和调试你的个性化对话

海量的内置 prompt 列表,来自中文和英文

自动压缩上下文聊天记录,在节省 Token 的同时支持超长对话

多国语言支持:English, 简体中文, 繁体中文, 日本語, Español, Italiano, Türkçe, Deutsch, Tiếng Việt, Русский, Čeština, 한국어, Indonesia

拥有自己的域名?好上加好,绑定后即可在任何地方无障碍快速访问

开发计划

为每个对话设置系统 Prompt #138

允许用户自行编辑内置 Prompt 列表

预制角色:使用预制角色快速定制新对话 #993

分享为图片,分享到 ShareGPT 链接 #1741

使用 tauri 打包桌面应用

支持自部署的大语言模型:开箱即用 RWKV-Runner ,服务端部署 LocalAI 项目 llama / gpt4all / rwkv / vicuna / koala / gpt4all-j / cerebras / falcon / dolly 等等,或者使用 api-for-open-llm

插件机制,支持联网搜索、计算器、调用其他平台 api #165

最新动态

v2.0 已经发布,现在你可以使用面具功能快速创建预制对话了! 了解更多: ChatGPT 提示词高阶技能:零次、一次和少样本提示。

想要更方便地随时随地使用本项目?可以试下这款桌面插件:https://github.com/mushan0x0/AI0x0.com

v2.7 现在可以将会话分享为图片了,也可以分享到 ShareGPT 的在线链接。

v2.8 发布了横跨 Linux/Windows/MacOS 的体积极小的客户端。

v2.9.11 现在可以使用自定义 Azure 服务了。

Get Started

简体中文 > 如何开始使用

Get OpenAI API Key;

Click

, remember that CODE is your page password;

Enjoy :)

FAQ

简体中文 > 常见问题

English > FAQ

Keep Updated

简体中文 > 如何保持代码更新

If you have deployed your own project with just one click following the steps above, you may encounter the issue of "Updates Available" constantly showing up. This is because Vercel will create a new project for you by default instead of forking this project, resulting in the inability to detect updates correctly.

We recommend that you follow the steps below to re-deploy:

Delete the original repository;

Use the fork button in the upper right corner of the page to fork this project;

Choose and deploy in Vercel again, please see the detailed tutorial.

Enable Automatic Updates

If you encounter a failure of Upstream Sync execution, please manually sync fork once.

After forking the project, due to the limitations imposed by GitHub, you need to manually enable Workflows and Upstream Sync Action on the Actions page of the forked project. Once enabled, automatic updates will be scheduled every hour:

Manually Updating Code

If you want to update instantly, you can check out the GitHub documentation to learn how to synchronize a forked project with upstream code.

You can star or watch this project or follow author to get release notifications in time.

Access Password

简体中文 > 如何增加访问密码

This project provides limited access control. Please add an environment variable named CODE on the vercel environment variables page. The value should be passwords separated by comma like this:

code1,code2,code3

After adding or modifying this environment variable, please redeploy the project for the changes to take effect.

Environment Variables

简体中文 > 如何配置 api key、访问密码、接口代理

CODE (optional)

Access password, separated by comma.

OPENAI_API_KEY (required)

Your openai api key, join multiple api keys with comma.

BASE_URL (optional)

Default: https://api.openai.com

Examples: http://your-openai-proxy.com

Override openai api request base url.

OPENAI_ORG_ID (optional)

Specify OpenAI organization ID.

AZURE_URL (optional)

Example: https://{azure-resource-url}/openai/deployments/{deploy-name}

Azure deploy url.

AZURE_API_KEY (optional)

Azure Api Key.

AZURE_API_VERSION (optional)

Azure Api Version, find it at Azure Documentation.

GOOGLE_API_KEY (optional)

Google Gemini Pro Api Key.

GOOGLE_URL (optional)

Google Gemini Pro Api Url.

HIDE_USER_API_KEY (optional)

Default: Empty

If you do not want users to input their own API key, set this value to 1.

DISABLE_GPT4 (optional)

Default: Empty

If you do not want users to use GPT-4, set this value to 1.

ENABLE_BALANCE_QUERY (optional)

Default: Empty

If you do want users to query balance, set this value to 1, or you should set it to 0.

DISABLE_FAST_LINK (optional)

Default: Empty

If you want to disable parse settings from url, set this to 1.

CUSTOM_MODELS (optional)

Default: Empty

Example: +llama,+claude-2,-gpt-3.5-turbo,gpt-4-1106-preview=gpt-4-turbo means add llama, claude-2 to model list, and remove gpt-3.5-turbo from list, and display gpt-4-1106-preview as gpt-4-turbo.

To control custom models, use + to add a custom model, use - to hide a model, use name=displayName to customize model name, separated by comma.

User -all to disable all default models, +all to enable all default models.

Requirements

NodeJS >= 18, Docker >= 20

Development

简体中文 > 如何进行二次开发

Before starting development, you must create a new .env.local file at project root, and place your api key into it:

OPENAI_API_KEY=

# if you are not able to access openai service, use this BASE_URL

BASE_URL=https://chatgpt1.nextweb.fun/api/proxy

Local Development

# 1. install nodejs and yarn first

# 2. config local env vars in `.env.local`

# 3. run

yarn install

yarn dev

Deployment

简体中文 > 如何部署到私人服务器

Docker (Recommended)

docker pull yidadaa/chatgpt-next-web

docker run -d -p 3000:3000 \

-e OPENAI_API_KEY=sk-xxxx \

-e CODE=your-password \

yidadaa/chatgpt-next-web

You can start service behind a proxy:

docker run -d -p 3000:3000 \

-e OPENAI_API_KEY=sk-xxxx \

-e CODE=your-password \

-e PROXY_URL=http://localhost:7890 \

yidadaa/chatgpt-next-web

If your proxy needs password, use:

-e PROXY_URL="http://127.0.0.1:7890 user pass"

Shell

bash <(curl -s https://raw.githubusercontent.com/Yidadaa/ChatGPT-Next-Web/main/scripts/setup.sh)

Synchronizing Chat Records (UpStash)

| 简体中文 | English | Italiano | 日本語 | 한국어

Documentation

Please go to the [docs][./docs] directory for more documentation instructions.

Deploy with cloudflare (Deprecated)

Frequent Ask Questions

How to add a new translation

How to use Vercel (No English)

User Manual (Only Chinese, WIP)

Screenshots

Translation

If you want to add a new translation, read this document.

Donation

Buy Me a Coffee

Special Thanks

Sponsor

仅列出捐赠金额 >= 100RMB 的用户。

@mushan0x0

@ClarenceDan

@zhangjia

@hoochanlon

@relativequantum

@desenmeng

@webees

@chazzhou

@hauy

@Corwin006

@yankunsong

@ypwhs

@fxxxchao

@hotic

@WingCH

@jtung4

@micozhu

@jhansion

@Sha1rholder

@AnsonHyq

@synwith

@piksonGit

@ouyangzhiping

@wenjiavv

@LeXwDeX

@Licoy

@shangmin2009

Contributors

LICENSE

MIT

About

A cross-platform ChatGPT/Gemini UI (Web / PWA / Linux / Win / MacOS). 一键拥有你自己的跨平台 ChatGPT/Gemini 应用。

app.nextchat.dev/

Topics

react

cross-platform

nextjs

desktop

gemini

webui

fe

tauri

groq

vercel

tauri-app

gemini-server

chatgpt

ollama

gemini-pro

gemini-ultra

Resources

Readme

License

MIT license

Code of conduct

Code of conduct

Activity

Custom properties

Stars

63.6k

stars

Watchers

379

watching

Forks

52.6k

forks

Report repository

Releases

57

v2.11.2: Support local Gemma, Mistral, Llama model via Ollama

Latest

Feb 26, 2024

+ 56 releases

Contributors

169

+ 155 contributors

Languages

TypeScript

86.8%

SCSS

11.5%

Other

1.7%

Footer

© 2024 GitHub, Inc.

Footer navigation

Terms

Privacy

Security

Status

Docs

Contact

Manage cookies

Do not share my personal information

You can’t perform that action at this time.

GitHub - zhpd/chatgpt-plus: Open source free ChatGPT App (Web, Mac, Windows and Linux). 免费开源的ChatGPT应用程序.

GitHub - zhpd/chatgpt-plus: Open source free ChatGPT App (Web, Mac, Windows and Linux). 免费开源的ChatGPT应用程序.

Skip to content

Toggle navigation

Sign in

Product

Actions

Automate any workflow

Packages

Host and manage packages

Security

Find and fix vulnerabilities

Codespaces

Instant dev environments

Copilot

Write better code with AI

Code review

Manage code changes

Issues

Plan and track work

Discussions

Collaborate outside of code

Explore

All features

Documentation

GitHub Skills

Blog

Solutions

For

Enterprise

Teams

Startups

Education

By Solution

CI/CD & Automation

DevOps

DevSecOps

Resources

Learning Pathways

White papers, Ebooks, Webinars

Customer Stories

Partners

Open Source

GitHub Sponsors

Fund open source developers

The ReadME Project

GitHub community articles

Repositories

Topics

Trending

Collections

Pricing

Search or jump to...

Search code, repositories, users, issues, pull requests...

Search

Clear

Search syntax tips

Provide feedback

We read every piece of feedback, and take your input very seriously.

Include my email address so I can be contacted

Cancel

Submit feedback

Saved searches

Use saved searches to filter your results more quickly

Name

Query

To see all available qualifiers, see our documentation.

Cancel

Create saved search

Sign in

Sign up

You signed in with another tab or window. Reload to refresh your session.

You signed out in another tab or window. Reload to refresh your session.

You switched accounts on another tab or window. Reload to refresh your session.

Dismiss alert

zhpd

/

chatgpt-plus

Public

Notifications

Fork

133

Star

425

Open source free ChatGPT App (Web, Mac, Windows and Linux). 免费开源的ChatGPT应用程序.

chatgpt-plus.app

License

MIT license

425

stars

133

forks

Branches

Tags

Activity

Star

Notifications

Code

Issues

25

Pull requests

0

Actions

Projects

0

Security

Insights

Additional navigation options

Code

Issues

Pull requests

Actions

Projects

Security

Insights

zhpd/chatgpt-plus

This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.

 mainBranchesTagsGo to fileCodeFolders and filesNameNameLast commit messageLast commit dateLatest commit History348 Commits.github/workflows.github/workflows  .husky.husky  docker-composedocker-compose  docsdocs  publicpublic  serviceservice  src-taurisrc-tauri  srcsrc  .dockerignore.dockerignore  .env.example.env.example  .eslintrc.json.eslintrc.json  .gitignore.gitignore  .release-it.json.release-it.json  CHANGELOG.mdCHANGELOG.md  DockerfileDockerfile  LICENSELICENSE  README.mdREADME.md  README_en.mdREADME_en.md  commitlint.config.jscommitlint.config.js  docker-start.shdocker-start.sh  next.config.jsnext.config.js  package-lock.jsonpackage-lock.json  package.jsonpackage.json  start.cmdstart.cmd  start.shstart.sh  tsconfig.jsontsconfig.json  View all filesRepository files navigationREADMEMIT license

ChatGPT-Plus

ChatGPT-Plus 是使用官方 ChatGPT API 的应用程序。

演示 Demo / 反馈 Issues / 开发 Gitpod / 部署 Vercel

简体中文 | English

喜欢这个项目吗?请帮忙点个 Star ⭐️或者分享给您的朋友,以帮助它得到改善!

Features

介绍

特性

原理

在线开发

安装运行

克隆项目

环境配置

前端网页

后端服务

打包部署

使用 Docker 部署

使用 Vercel 部署

手动打包

前端网页

后端服务

附加说明

常见问题

参与贡献

感谢

赞助

License

介绍

ChatGPT-Plus 客户端是官方 ChatGPT API 的应用程序。该应用程序是对 OpenAI 的ChatGPT的官方 API 的封装应用。

✨特性

一个完整的 ChatGPT 客户端。

使用 Nextjs & Nestjs 构建,快速启动。

响应式设计,支持移动端访问。

支持多种主题, 白天/夜间模式。

国际化支持,目前支持中文和英文。

支持自定义提示词,查看在线推荐提示词

使用 CSS-in-JS 技术,支持主题定制。

支持 Docker & Vercel 部署。

原理

提供两种方式进行访问,要在 Node.js 中使用此模块,您需要在两种方法之间选择:

方法

免费?

健壮?

质量?

ChatGPTAPI

❌ 否

✅ 是

✅️ 真实的 ChatGPT 模型

ChatGPTUnofficialProxyAPI

✅ 是

☑️ 可能

✅ 真实的 ChatGPT

ChatGPTAPI - 使用带有官方 OpenAI 聊天完成 API(官方、强大的方法,但不免费)的gpt-3.5-turbo-0301模型。您可以覆盖模型、完成参数和系统消息,以完全自定义您的助手。

ChatGPTUnofficialProxyAPI - 使用非官方代理服务器以绕过 Cloudflare 的方式访问 ChatGPT 的后端 API(使用真实的 ChatGPT,比较轻量级,但依赖第三方服务器且有速率限制)。

这两种方法具有非常相似的 API,因此在它们之间切换应该很简单。

注意:我们强烈建议使用ChatGPTAPI,因为它使用 OpenAI 官方支持的 API。在未来的发布版本中,我们可能会停止对ChatGPTUnofficialProxyAPI的支持。

该请求原理采用的是 chatgpt-api提供的功能模块.

在线开发

你可以使用 Gitpod 进行在线开发:

或者克隆到本地开发,按照以下步骤进行:

安装运行

克隆项目

# clone the project

git clone https://github.com/zhpd/chatgpt-plus.git

如果没有 git 环境,可以直接下载 zip 包,解压后进入项目目录

环境配置

Node v14+

本项目基于 Node.js 进行开发,需要 Node.js 14.0+ 环境。Make sure you're using node >= 18 so fetch is available (or node >= 14 if you install a fetch polyfill).

Api Key / AccessToken

本项目使用的是 OpenAI 官方提供的 API,需要申请 Api Key 和 AccessToken

OpenAI 官方注册申请地址:https://platform.openai.com/,需要科学上网

通过其他方式获取 ApiKey 或 AccessToken 点击查看

申请成功后,将 APIKey 和 AccessToken 填写到 chatgpt-plus/service/.env 文件中

可选 VSCode

推荐使用 VSCode 编辑器进行开发,安装插件 ESLint 和 Prettier,并在设置中开启 Format On Save

前端网页

环境变量-前端

配置端口和接口请求地址在根目录.env 里。

可直接复制根目录下的.env.example 文件进行修改,文件名修改为.env)

环境变量名

默认值

说明

PORT

3000

端口

NEXT_PUBLIC_API_URL

http://localhost:3002

接口地址

配置文件

可直接复制根目录下的.env.example 文件进行修改,文件名修改为.env

# port

PORT=3000

# api url

NEXT_PUBLIC_API_URL=http://localhost:3002

运行代码

# enter the project directory

cd chatgpt-plus

# install dependency

npm install

# develop

npm run dev

运行启动成功后,可在浏览器打开 http://localhost:3000 查看效果

后端服务

环境变量-后端

配置端口和 ApiKey、AccessToken 在 service 目录下.env 里

环境变量名

默认值

说明

PORT

3002

端口

OPENAI_API_KEY

-

API_KEY

OPENAI_ACCESS_TOKEN

-

ACCESS_TOKEN

API_REVERSE_PROXY

https://api.pawan.krd/backend-api/conversation

代理

TIMEOUT_MS

60000

超时毫秒数

配置文件

可直接复制 service 目录下的.env.example 文件进行修改,文件名修改为.env

# service/.env

# OpenAI API Key - https://platform.openai.com/overview

OPENAI_API_KEY=

# change this to an `accessToken` extracted from the ChatGPT site's `https://chat.openai.com/api/auth/session` response

OPENAI_ACCESS_TOKEN=

# Reverse Proxy default 'https://bypass.churchless.tech/api/conversation'

API_REVERSE_PROXY=

# timeout

TIMEOUT_MS=100000

运行代码

# enter the project directory

cd chatgpt-plus

# enter the service directory

cd service

# install dependency

npm install

# develop

npm run dev

运行启动成功后,后端服务便可正常运行

打包部署

Docker

使用Docker方式部署,需要安装Docker环境

Docker 参数示例

使用docker-compose文件夹内的配置文件,进行拉取运行即可

Vercel

使用Vercel进行部署,可一键部署

Vercel环境变量

手动打包

前端网页打包

代码打包

进入项目根文件夹

修改根目录下 .env 文件中的 API_URL 为你的实际后端接口公网地址

运行 npm install 安装依赖

运行 npm run build 打包代码

运行部署

将 dist 文件夹内的文件复制到你网站 前端服务 的目录下

进入 dist 文件夹

运行 npm run start 启动服务

后端服务打包

代码打包

进入 service 文件夹

运行 npm install 安装依赖

运行 npm run build 打包代码

运行部署

将 service/dist 文件夹内的文件复制到你网站 后端服务 的目录下

进入 service/dist 文件夹

运行 npm run start 启动服务

备注: 如果不想进行打包,可以直接复制 service文件夹 到服务器上运行 npm install 和 npm run start 也可以启动服务

ℹ️附加内容

获取密钥 API Key

配置文件

您可以通过给后端服务.env 配置OPENAI_API_KEY密钥进行访问:

# R OpenAI API Key

OPENAI_API_KEY =

本项目使用的是 OpenAI 官方提供的 API,需要先申请 OpenAI 账号

OpenAI 官方注册申请地址:https://platform.openai.com/,需要科学上网

注册成功后,通过https://platform.openai.com/account/api-keys 获取 API Key,需要科学上网

获取访问令牌 accessToken

配置文件

您可以通过给后端服务.env 配置OPENAI_ACCESS_TOKEN访问令牌访问:

# change this to an `accessToken` extracted from the ChatGPT

OPENAI_ACCESS_TOKEN =

您需要从 ChatGPT Web 应用程序获取一个 OpenAI 访问令牌。您可以使用以下任何方法之一,这些方法需要一个email和password,并返回一个访问令牌:

Node.js 库

ericlewis/openai-authenticator

michael-dm/openai-token

allanoricil/chat-gpt-authenticator

Python 库

acheong08/OpenAIAuth

这些库与使用电子邮件和密码进行身份验证的帐户配合使用(例如,它们不支持通过 Microsoft / Google 进行身份验证的帐户)。

另外,您可以通过登录 ChatGPT Web 应用程序并打开https://chat.openai.com/api/auth/session来手动获取一个accessToken,该链接将返回一个 JSON 对象,其中包含您的accessToken字符串。

访问令牌有效期为数天。

注意:使用反向代理将使您的访问令牌暴露给第三方。这不会产生任何不利影响,但在使用此方法之前,请考虑风险。

反向代理

配置文件

您可以通过给后端服务.env 配置API_REVERSE_PROXY代理地址覆盖反向代理:

# Reverse Proxy

API_REVERSE_PROXY =

社区成员运行的已知反向代理包括:

反向代理 URL

作者

速率限制

最后检查日期

https://bypass.churchless.tech/api/conversation

@acheong08

5 req / 10 seconds by IP

3/24/2023

https://api.pawan.krd/backend-api/conversation

@PawanOsman

50 req / 15 seconds (~3 r/s)

3/23/2023

注:目前不公布反向代理工作方式的信息,以防止 OpenAI 禁用访问。

❓常见问题

Q: 如果只使用前端页面,在哪里改请求接口?

A: 根目录下 .env 文件中的 API_URL 字段。

Q: 前端没有打字机效果?

A: 一种可能原因是经过 Nginx 反向代理,开启了 buffer,则 Nginx 会尝试从后端缓冲一定大小的数据再发送给浏览器。请尝试在反代参数后添加 proxy_buffering off;,然后重载 Nginx。其他 web server 配置同理。

参与贡献

感谢所有做过贡献的人!

Star History

感谢

非常感谢项目支持者和所有其他贡献者

非常感谢最初构建的参考项目@transitive-bullshit的chatgpt-api和@Chanzhaoyu的chatgpt-web提供的思路。

非常感谢OpenAI 创建的 ChatGPT

赞助

如果您觉得本项目对您有帮助,可以帮忙点个 Star ⭐️,或者分享给您的朋友,您的支持是我最大的动力!

License

MIT © zhpd

About

Open source free ChatGPT App (Web, Mac, Windows and Linux). 免费开源的ChatGPT应用程序.

chatgpt-plus.app

Topics

web

chatbot

gpt

vercel

chatgpt

Resources

Readme

License

MIT license

Activity

Stars

425

stars

Watchers

7

watching

Forks

133

forks

Report repository

Releases

94

Release 1.5.17

Latest

Aug 9, 2023

+ 93 releases

Packages

0

No packages published

Contributors

2

 

 

Languages

TypeScript

84.1%

CSS

13.7%

JavaScript

1.1%

Dockerfile

0.6%

Shell

0.2%

Rust

0.1%

Other

0.2%

Footer

© 2024 GitHub, Inc.

Footer navigation

Terms

Privacy

Security

Status

Docs

Contact

Manage cookies

Do not share my personal information

You can’t perform that action at this time.

chatgpt · GitHub Topics · GitHub

chatgpt · GitHub Topics · GitHub

Skip to content

Toggle navigation

Sign in

Product

Actions

Automate any workflow

Packages

Host and manage packages

Security

Find and fix vulnerabilities

Codespaces

Instant dev environments

Copilot

Write better code with AI

Code review

Manage code changes

Issues

Plan and track work

Discussions

Collaborate outside of code

Explore

All features

Documentation

GitHub Skills

Blog

Solutions

For

Enterprise

Teams

Startups

Education

By Solution

CI/CD & Automation

DevOps

DevSecOps

Resources

Learning Pathways

White papers, Ebooks, Webinars

Customer Stories

Partners

Open Source

GitHub Sponsors

Fund open source developers

The ReadME Project

GitHub community articles

Repositories

Topics

Trending

Collections

Pricing

Search or jump to...

Search code, repositories, users, issues, pull requests...

Search

Clear

Search syntax tips

Provide feedback

We read every piece of feedback, and take your input very seriously.

Include my email address so I can be contacted

Cancel

Submit feedback

Saved searches

Use saved searches to filter your results more quickly

Name

Query

To see all available qualifiers, see our documentation.

Cancel

Create saved search

Sign in

Sign up

You signed in with another tab or window. Reload to refresh your session.

You signed out in another tab or window. Reload to refresh your session.

You switched accounts on another tab or window. Reload to refresh your session.

Dismiss alert

Explore

Topics

Trending

Collections

Events

GitHub Sponsors

#

ChatGPT

Star

ChatGPT (Chat Generative Pre-trained Transformer) is a chatbot launched by OpenAI in November 2022. It is built on top of OpenAI's GPT-3 family of large language models, and is fine-tuned (an approach to transfer learning) with both supervised and reinforcement learning techniques.

Here are

9,879 public repositories

matching this topic...

Language:

All

Filter by language

All

9,879

Python

2,797

JavaScript

1,591

TypeScript

1,543

Go

395

HTML

362

Jupyter Notebook

329

C#

212

Java

206

Vue

142

PHP

139

Sort:

Most stars

Sort options

Most stars

Fewest stars

Most forks

Fewest forks

Recently updated

Least recently updated

f

/

awesome-chatgpt-prompts

Sponsor

Star

101k

Code

Issues

Pull requests

This repo includes ChatGPT prompt curation to use ChatGPT better.

language

bots

chatbot

chatgpt

chatgpt-api

Updated

Mar 1, 2024

HTML

ChatGPTNextWeb

/

ChatGPT-Next-Web

Star

63.6k

Code

Issues

Pull requests

Discussions

A cross-platform ChatGPT/Gemini UI (Web / PWA / Linux / Win / MacOS). 一键拥有你自己的跨平台 ChatGPT/Gemini 应用。

react

cross-platform

nextjs

desktop

gemini

webui

fe

tauri

groq

vercel

tauri-app

gemini-server

chatgpt

ollama

gemini-pro

gemini-ultra

Updated

Mar 8, 2024

TypeScript

openai

/

openai-cookbook

Star

54.5k

Code

Issues

Pull requests

Examples and guides for using the OpenAI API

openai

openai-api

gpt-4

chatgpt

Updated

Mar 8, 2024

MDX

xtekky

/

gpt4free

Star

54.3k

Code

Issues

Pull requests

Discussions

The official gpt4free repository | various collection of powerful language models

python

chatbot

reverse-engineering

openai

chatbots

gpt

language-model

gpt-3

gpt3

openai-api

gpt-4

gpt4

chatgpt

chatgpt-api

openai-chatgpt

chatgpt-free

chatgpt-4

chatgpt4

gpt4-api

free-gpt

Updated

Mar 8, 2024

Python

binary-husky

/

gpt_academic

Star

52.6k

Code

Issues

Pull requests

Discussions

为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。

academic

gpt-4

large-language-models

chatgpt

chatglm-6b

Updated

Mar 7, 2024

Python

PlexPt

/

awesome-chatgpt-prompts-zh

Star

49k

Code

Issues

Pull requests

Discussions

ChatGPT 中文调教指南。各种场景使用指南。学习怎么让它听你的话。

gpt

chatgpt

chat-gpt

chatgpt3

chatgpt4

Updated

Jan 28, 2024

lencx

/

ChatGPT

Star

46.1k

Code

Issues

Pull requests

Discussions

ChatGPT Desktop Application (Mac, Windows and Linux)

desktop-app

windows

macos

linux

rust

application

app

ai

webview

openai

gpt

notes-app

tauri

gpt-3

chatgpt

Updated

Feb 20, 2024

Rust

dair-ai

/

Prompt-Engineering-Guide

Sponsor

Star

42.1k

Code

Issues

Pull requests

Guides, papers, lecture, notebooks and resources for prompt engineering

deep-learning

openai

language-model

prompt-engineering

chatgpt

Updated

Mar 7, 2024

MDX

KillianLucas

/

open-interpreter

Star

41.5k

Code

Issues

Pull requests

A natural language interface for computers

nodejs

javascript

python

interpreter

gpt-4

chatgpt

Updated

Mar 8, 2024

Python

LAION-AI

/

Open-Assistant

Star

36.4k

Code

Issues

Pull requests

Discussions

OpenAssistant is a chat-based assistant that understands tasks, can interact with third-party systems, and retrieve information dynamically to do so.

python

machine-learning

ai

nextjs

discord-bot

assistant

language-model

chatgpt

rlhf

Updated

Feb 29, 2024

Python

QuivrHQ

/

quivr

Star

28.9k

Code

Issues

Pull requests

Your GenAI Second Brain A personal productivity assistant (RAG) ⚡️ Chat with your docs (PDF, CSV, ...) & apps using Langchain, GPT 3.5 / 4 turbo, Private, Anthropic, VertexAI, Ollama, LLMs, that you can share with users ! Local & Private alternative to OpenAI GPTs & ChatGPT powered by retrieval-augmented generation.

react

javascript

html

api

docker

security

privacy

typescript

database

ai

frontend

rest-api

vector

chatbot

postgresql

ycombinator

openai

rag

llm

chatgpt

Updated

Mar 7, 2024

TypeScript

microsoft

/

generative-ai-for-beginners

Star

28.2k

Code

Issues

Pull requests

Discussions

18 Lessons, Get Started Building with Generative AI https://microsoft.github.io/generative-ai-for-beginners/

ai

azure

transformers

openai

gpt

language-model

semantic-search

dall-e

prompt-engineering

llms

generative-ai

generativeai

chatgpt

Updated

Mar 7, 2024

Jupyter Notebook

acheong08

/

ChatGPT

Sponsor

Star

27.8k

Code

Issues

Pull requests

Discussions

Reverse engineered ChatGPT API

cli

library

pypi-package

chatgpt

gptchat

revchatgpt

gpt-35-turbo

Updated

Aug 2, 2023

Python

chatchat-space

/

Langchain-Chatchat

Star

24.5k

Code

Issues

Pull requests

Discussions

Langchain-Chatchat(原Langchain-ChatGLM)基于 Langchain 与 ChatGLM 等语言模型的本地知识库问答 | Langchain-Chatchat (formerly langchain-ChatGLM), local knowledge based LLM (like ChatGLM) QA app with langchain

chatbot

llama

gpt

knowledge-base

embedding

text2vec

faiss

milvus

streamlit

llm

chatgpt

langchain

pgvector

chatglm

chatglm-6b

fastchat

chatglm2-6b

langchain-chatglm

chatchat

langchain-chatchat

Updated

Mar 8, 2024

Python

LC044

/

WeChatMsg

Star

24.1k

Code

Issues

Pull requests

Discussions

提取微信聊天记录,将其导出成HTML、Word、CSV文档永久保存,对聊天记录进行分析生成年度聊天报告

wechat

pyqt

llms

chatgpt

Updated

Mar 7, 2024

Python

zhayujie

/

chatgpt-on-wechat

Star

22.9k

Code

Issues

Pull requests

Discussions

基于大模型搭建的微信聊天机器人,同时支持微信、企业微信、公众号、飞书、钉钉接入,可选择GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM-4/LinkAI,能处理文本、语音和图片,访问操作系统和互联网,支持基于自有知识库进行定制企业智能客服。

ai

python3

gemini

openai

wechat

glm

wechat-bot

dingtalk

rag

feishu-bot

gpt-4

llm

chatgpt

wenxinyiyan

qwen

xunfei-spark

linkai

chatglm-4

Updated

Mar 8, 2024

Python

microsoft

/

autogen

Star

22.6k

Code

Issues

Pull requests

Discussions

A programming framework for agentic AI. Join our Discord: https://discord.gg/pAbnFJrkgZ

chat

chatbot

gpt

chat-application

agent-based-framework

agent-oriented-programming

gpt-4

chatgpt

llmops

gpt-35-turbo

llm-agent

llm-inference

agentic

llm-framework

agentic-agi

Updated

Mar 8, 2024

Jupyter Notebook

tw93

/

Pake

Sponsor

Star

22.2k

Code

Issues

Pull requests

Discussions

Turn any webpage into a desktop app with Rust. 利用 Rust 轻松构建轻量级多端桌面应用

music

rust

productivity

mac

youtube

twitter

programming

webview

open

high-performance

openai

windows-desktop

poe

linux-desktop

tauri

mac-desktop

gpt-4

no-electron

chatgpt

Updated

Mar 6, 2024

Rust

openai-translator

/

openai-translator

Star

21.7k

Code

Issues

Pull requests

Discussions

基于 ChatGPT API 的划词翻译浏览器插件和跨平台桌面端应用 - Browser extension and cross-platform desktop application for translation based on ChatGPT API.

chrome-extension

translator

translation

openai

browser-extension

translator-app

chatgpt

Updated

Mar 6, 2024

TypeScript

lobehub

/

lobe-chat

Star

21.6k

Code

Issues

Pull requests

Discussions

Lobe Chat - an open-source, modern-design LLMs/AI chat framework. Supports Multi AI Providers( OpenAI / Claude 3 / Gemini / Perplexity / Bedrock / Azure / Mistral / Ollama ), Multi-Modals (Vision/TTS) and plugin system. One-click FREE deployment of your private ChatGPT chat application.

chat

ai

nextjs

tts

gemini

openai

gpt

claude

gpt-4

azure-openai

chatgpt

chatglm

function-calling

llama2

ollama

dalle-3

gpt-4-vision

Updated

Mar 8, 2024

TypeScript

Load more…

Created by OpenAI

Released November 30, 2022

Followers

5.9k followers

Website

chat.openai.com

Wikipedia

Wikipedia

Footer

© 2024 GitHub, Inc.

Footer navigation

Terms

Privacy

Security

Status

Docs

Contact

Manage cookies

Do not share my personal information

You can’t perform that action at this time.

为什么 OpenAI 是开源的,而 ChatGPT 是收费的? - 知乎

为什么 OpenAI 是开源的,而 ChatGPT 是收费的? - 知乎首页知乎知学堂发现等你来答​切换模式登录/注册人工智能开源OpenAIChatGPT为什么 OpenAI 是开源的,而 ChatGPT 是收费的?关注者26被浏览29,788关注问题​写回答​邀请回答​好问题​1 条评论​分享​22 个回答默认排序星空​ 关注OpenAI是公司的名字,虽然最初的openAI产品开源,但是openAI只是个名字,openAI不Open。OpenAI的chatGPT基于gpt3.5or4.0,这两者都不开源。GPT2倒是开源的,而且被写进了教材里。另外,OpenAI也有些别的有点用的开源产品,比如Whisper。发布于 2023-08-31 10:26​赞同 5​​添加评论​分享​收藏​喜欢收起​孟奇奎​信息技术行业 首席技术官​ 关注OpenAI成立于2015年,专注于人工智能研究,早期的投资者包括ELon Mask,在早期阶段openAI定位是开源组织,并且早期从研究成果如gpt3之前的版本是开源的,后来随着生成式AI的技术的深入,巨大的投入及微软投资的加入,openAI的成果不再开源,如GPT3,GPT4及chatGPT,openAI现在已经是一家盈利性组织。发布于 2023-08-31 05:56​赞同 7​​添加评论​分享​收藏​喜欢

一大波 ChatGPT 开源项目,诞生了!-腾讯云开发者社区-腾讯云

ChatGPT 开源项目,诞生了!-腾讯云开发者社区-腾讯云GitHubDaily一大波 ChatGPT 开源项目,诞生了!关注作者腾讯云开发者社区文档建议反馈控制台首页学习活动专区工具TVP最新优惠活动文章/答案/技术大牛搜索搜索关闭发布登录/注册首页学习活动专区工具TVP最新优惠活动返回腾讯云官网GitHubDaily首页学习活动专区工具TVP最新优惠活动返回腾讯云官网社区首页 >专栏 >一大波 ChatGPT 开源项目,诞生了!一大波 ChatGPT 开源项目,诞生了!GitHubDaily关注发布于 2023-01-09 14:48:1912.2K0发布于 2023-01-09 14:48:19举报文章被收录于专栏:GitHubDailyGitHubDaily大家好,我是小 G。本月初 ChatGPT 问世,犹如平地惊雷般,在技术圈中引起了广泛讨论。作为全球最大的开发者社区,GitHub 平台也在近期诞生了多个 ChatGPT 相关的开源项目,其数量之多,可谓是见所未见,闻所未闻。说是 ChatGPT 以其一己之力,霸榜了大半个 GitHub Trending 也毫不为过。它究竟有何魅力,竟让诸多开发者如此激动不已呢?别急,且听我娓娓道来。ChatGPT 是由 OpenAI 于近期推出的一款智能聊天机器人应用,通过人机交互、线上一对一交流的方式,完成需要大量人工才能处理的工作。而该项目背后的研发团队:OpenAI,这个坐落于旧金山的人工智能研究机构,已然不是第一次凭借其出色的 AI 能力火出圈了。早在去年,便有用户借助 OpenAI 所提供的 GPT-3,将其已逝去的妻子成功在互联网上 "复活",并实现了完整对话,把诸多网友看的瞠目结舌。虽然该用途已因潜在风险被 OpenAI 禁用,但其模型的强大之处,还是由此可见一斑。近日诞生的 ChatGPT,则是由更进一步的 GPT 3.5 提供底层技术支持,它所具备的能力,更让人感到头皮发麻。经过这两天的尝试体验,不少用户发现 ChatGPT 已经可以实现诸如智能聊天、写作、编程、批作业、改 Bug、撰写周报、砍价、作诗等工作。更有甚者,还把它直接当虚拟机使用。下面是我让 ChatGPT 创作的一则短篇小说,大家可以感受下:

虽说部分故事情节还需润色,但大体框架已颇为完善。

那 ChatGPT 能不能接着帮你润色故事呢?当然可以!

只需要像我这么操作即可:不吹不黑,单单把它拿来创作写故事这块,这东西我就能玩一年。

现在,网上关于 ChatGPT 的技术解析与使用教程已有不少,这里便不多做赘述。下面主要聊聊,GitHub 上与此相关的开源项目,以便大家后续的进阶使用。浏览器插件1. ChatGPT for Google这款插件支持 Chrome / Edge / Firefox 等浏览器。在安装之后,除了会在浏览器正常展示 Google 搜索内容,还会在右侧展示 ChatGPT 反馈结果,进一步提升搜索效率。GitHub:https://github.com/wong2/chat-gpt-google-extension2. ChatGPT Chrome Extension这是专为 Chrome 用户开发的一款 ChatGPT 插件。安装之后,在任意页面文本框中点击右键,即可弹出「Ask ChatGPT」的选项。选中后,ChatGPT 会根据当前文本框中的内容,执行具体任务。利用这些特性,可以快速完成撰写推文、修改邮件、修复 Bug 等工作,非常方便。

GitHub:https://github.com/gragland/chatgpt-chrome-extension逆向工程任何让工程师充满好奇心的项目,都逃不过逆向,在这一点上,ChatGPT 也不例外。GitHub 上一位来自马来西亚的开发者 Antonio Cheong,在 ChatGPT 发布没多久后,便对其进行了逆向,成功提取了 API。

有了这些 API,我们便可以自行开发一款好玩的聊天机器人、AI 智能助手、代码辅助工具等应用。GitHub:https://github.com/acheong08/ChatGPTMac 插件为了让 ChatGPT 的使用更为简便,GitHub 上有开发者为 Mac 用户量身定制了一款小工具:ChatGPT for desktop。安装之后,可通过 Cmd+Shift+G 快捷键,快速在系统菜单栏启动 ChatGPT。

该工具其实也支持 Windows 系统,只不过需要开发者运行 npm install electron-forge 命令自行编译。GitHub:https://github.com/vincelwt/chatgpt-macNode.js API 接口平时习惯用 Node.js 开发的同学,建议你关注下「ChatGPT API」这个项目。它将 ChatGPT 的 API 进行了二次封装,让定制开发流程变得更加轻松。通过 npm 扩展包进行安装,即可快速使用。

GitHub:https://github.com/transitive-bullshit/chatgpt-api微信聊天助手像 ChatGPT 如此有趣且前卫的黑科技项目,与微信搭配使用,岂不是如虎添翼?

跟我有一样想法的同学,这里给你推荐两个开源项目。

1. WeChat GPT该项目基于 wechaty 来建立微信与 ChatGPT 的桥梁,让你快速通过微信聊天窗口,发起与 ChatGPT 的对话。在使用之前,需先配置 OpenAI 的用户信息,以及对应的「关键词」触发。GitHub:https://github.com/fuergaosi233/wechat-chatgpt2. ChatGPT WeChat Bot这个项目基于 NodeJS 和 webchaty 开发,同上面项目一样,用 Docker 部署,配置完用户信息后,即可快速使用。你可以在群里拉入机器人,@它并发起一个问题,便能得到响应。这是实际使用效果:

GitHub:https://github.com/AutumnWhj/ChatGPT-wechat-bot写在最后总的来说,ChatGPT 应该是我今年看到的最有意思的 AI 项目了。与平日所见的高大上产业解决方案不同,ChatGPT 更为接地气,真正让普通用户近距离感受到了 AI 技术所带来的震撼。目前网上对此项目褒贬不一,不少科技公司控诉其 AI 生成的数据将为互联网长期建立已久的秩序带来干扰。但是,自古以来,那些从未被开拓过的领域,本就杂草丛生、险象环绕,总得有人躬身入局,为大家开辟道路,才有可能去到我们未曾探索过的彼岸。在这一点上,我觉得 ChatGPT 做到了。

2022 已接近尾声,未来的科技社会将如何演变,我至今对此仍然满怀期待。如果你们有什么想对 ChatGPT 说的,或者有什么有趣的想法,也欢迎在这篇文章下方留言,我将代为转告---文中所提到的所有开源项目与工具,已收录至 GitHubDaily 的开源项目列表中。

该列表包含了 GitHub 上诸多高质量、有趣实用的开源技术教程、开发者工具、编程网站等内容。从 2015 年至今,累积分享 3500+ 个开源项目,有需要的,可访问下方 GitHub 地址或点击https://github.com/GitHubDaily/GitHubDaily自取:GitHub:https://github.com/GitHubDaily/GitHubDaily 好了,今天的分享到此结束,感谢大家抽空阅读,我们下期再见,Respect!本文参与 腾讯云自媒体分享计划,分享自微信公众号。原始发表:2022-12-09,如有侵权请联系 cloudcommunity@tencent.com 删除githubhttpsgit网络安全开源本文分享自 GitHubDaily 微信公众号,前往查看如有侵权,请联系 cloudcommunity@tencent.com 删除。本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!githubhttpsgit网络安全开源评论登录后参与评论0 条评论热度最新登录 后参与评论推荐阅读LV.关注文章0获赞0目录写在最后相关产品与服务云开发 CLI 工具云开发 CLI 工具(Cloudbase CLI Devtools,CCLID)是云开发官方指定的 CLI 工具,可以帮助开发者快速构建 Serverless 应用。CLI 工具提供能力包括文件储存的管理、云函数的部署、模板项目的创建、HTTP Service、静态网站托管等,您可以专注于编码,无需在平台中切换各类配置。产品介绍2024新春采购节领券社区专栏文章阅读清单互动问答技术沙龙技术视频团队主页腾讯云TI平台活动自媒体分享计划邀请作者入驻自荐上首页技术竞赛资源技术周刊社区标签开发者手册开发者实验室关于社区规范免责声明联系我们友情链接腾讯云开发者扫码关注腾讯云开发者领取腾讯云代金券热门产品域名注册云服务器区块链服务消息队列网络加速云数据库域名解析云存储视频直播热门推荐人脸识别腾讯会议企业云CDN加速视频通话图像分析MySQL 数据库SSL 证书语音识别更多推荐数据安全负载均衡短信文字识别云点播商标注册小程序开发网站监控数据迁移Copyright © 2013 - 2024 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有 深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569腾讯云计算(北京)有限责任公司 京ICP证150476号 |  京ICP备11018762号 | 京公网安备号11010802020287问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档Copyright © 2013 - 2024 Tencent Cloud.All Rights Reserved. 腾讯云 版权所有登录 后参与评论00

ChatGPT开源替代来了:参数量200亿,在4300万条指令上微调而成_澎湃号·湃客_澎湃新闻-The Paper

GPT开源替代来了:参数量200亿,在4300万条指令上微调而成_澎湃号·湃客_澎湃新闻-The Paper下载客户端登录无障碍+1ChatGPT开源替代来了:参数量200亿,在4300万条指令上微调而成2023-03-14 13:22来源:澎湃新闻·澎湃号·湃客字号机器之心报道编辑:张倩OpenChatKit 是一个类 ChatGPT 开源工具包,内含一个 20B 参数量的大模型,而且该模型在 4300 万条指令上进行了微调。2023 年,聊天机器人领域似乎只剩下两个阵营:「OpenAI 的 ChatGPT」和「其他」。ChatGPT 功能强大,但 OpenAI 不太可能将其开源。「其他」阵营表现欠佳,但不少人都在做开源方面的努力,比如前段时间 。除此之外,一个名为 EleutherAI 的开源 AI 研究团队也一直在贡献开源大模型成果。自 2020 年 7 月成立以来,该团队先后开源了基于 GPT-3 的、包含 60 亿参数的 NLP 模型 GPT-J,类 GPT 的 ,以及 200 亿参数的 。据悉,他们的最终目标是将开源模型的参数规模扩展到 1700 亿左右,就像 GPT-3 一样。在 ChatGPT 火遍全球之际,EleutherAI 的这些开源成果派上了用场。一家名为 Together 的组织表示,他们基于 EleutherAI 开源的 GPT-Neo 和 GPT-J 构建了一个新的类 ChatGPT 开源项目 ——OpenChatKit。项目链接:https://github.com/togethercomputer/OpenChatKit这个项目提供了一个强大的、开源的基础,可以为各种应用创建专门和通用的聊天机器人。具体来说,它包含:一个参数量达 20B 的开源模型,该模型基于 EleutherAI 的 GPT-NeoX-20B,在 4300 万条指令上进行了微调;一个参数量达 60 亿的审核模型(moderation model),可以帮模型过滤不当内容;一个可扩展的检索系统,可以帮模型检索维基百科等资源库,从而给出最新信息。根据 Together 提供的链接,我们可以粗略看到 OpenChatKit 在摘要提取、问答、写作等方面的表现。以下是 Together 提供的一些 demo:想要深入了解 OpenChatKit 的读者也可以亲自测试。测试链接:https://huggingface.co/spaces/togethercomputer/OpenChatKit从目前的表现来看,OpenChatKit 可能还不太令人满意。但在此开源项目的基础上,社区有望构建出更加强大的聊天机器人应用。参数量 20B 的指令调优大模型GPT-NeoXT-Chat-Base-20B 是构成 OpenChatKit 基础的大型语言模型。它基于 EleutherAI 的 GPT-NeoX 模型,并通过专注于对话互动的数据进行了微调。Together 在 Huggingface 上发布了这个模型的预训练权重:https://huggingface.co/togethercomputer/GPT-NeoXT-Chat-Base-20BTogether 的开发者将模型调整的重点放在几个任务上,如多轮对话、问答、分类、提取和总结。他们用 4300 万条高质量指令对模型进行了微调,并与 LAION 和 Ontocord 合作,创建了该模型所基于的 OIG-43M 数据集。数据集信息参见:https://laion.ai/blog/oig-dataset/OIG-43M 数据集示例。开箱即用的 GPT-NeoXT-Chat-Base-20B 为一系列广泛的自然语言任务提供了一个强大的基础。从质量上看,它在 HELM 基准上的得分比其基础模型 GPT-NeoX 高,特别是在涉及问答、提取和分类的任务上。在 HELM 上评估 GPT-NeoXT-Chat-Base-20B 并与 GPT-NeoX 进行比较。†表示测试包含微调语料库中的数据。模型长处OpenChatKit 有几个任务是开箱即用的,包括:1、将一份长的文件总结成一句话,并回答与该文件相关的问题,问答可进行多轮;2、从非结构化文件中提取结构化信息,如下图所示;3、将一个句子或段落分为不同的类别(比如情绪是积极还是消极)。利用 OpenChatKit 把一段长文字内容转化成图表。模型短板OpenChatKit 目前的短板包括:基于知识的封闭式问答。该聊天机器人可能会给出不正确的结果,需要用户提供反馈;代码相关任务。由于训练数据中没有足够多的代码,因此该聊天机器人在代码方面表现欠佳;重复性。该聊天机器人有时会重复自己的回答,用户可以点击刷新,开始新的对话;上下文切换。该聊天机器人不太擅长转换话题。创意写作和较长的答案。该聊天机器人不会生成长的、有创意的文本,如论文或故事。针对特定任务定制聊天机器人在一般问答任务中,大型语言模型已经显示出令人印象深刻的能力。当为特定的应用进行微调时,它们往往能达到更高的准确率。例如,谷歌的 PaLM 在医学回答上达到了大约 50% 的准确率,但是通过添加指令支持和对医学特定信息的微调,谷歌创造了 Med-PaLM,其准确率达到了 92.6%。同样的方法也可以用于其他任务。OpenChatKit 提供了一些工具来为专门的应用微调聊天机器人。其开发团队正在与研究小组和公司合作,帮助他们为各种任务创建自定义模型。这些任务包括:教育助手:在开放的教科书数据集上进行微调,创建一个聊天机器人,通过自然对话帮助各年龄段的学生了解各种主题;金融问答:微调并利用美国证券交易委员会文件等金融数据的检索,实现金融领域的问答;客户支持代理:利用知识库数据进行微调,创建聊天机器人,帮助终端用户分辨问题并快速找到答案。如何进行微调微调需要的操作包括准备好你的数据集,使用指定格式的交互示例;将你的数据集保存为 jsonl 文件,并按照 OpenChatKit 的 GitHub 文档对聊天模型进行微调;不要忘记审核模型!在开始使用你的微调模型之前,请注意审核模型可能需要过滤的域外问题。如果有必要,准备一些调节数据并微调审核模型。这个过程的文档和源代码可以在 OpenChatKit 的 GitHub 链接中找到。由于 OpenChatKit 在 Apache-2.0 许可下完全开源,你可以为自己的应用或研究深入调整、修改或检查权重。用于实时更新答案的可扩展检索系统OpenChatKit 还包括一个可扩展的检索系统。有了这个检索系统,聊天机器人能够将定期更新的内容或自定义的内容,如来自维基百科的知识、新闻提要或体育比赛成绩纳入回答中。检索增强系统的工作流程示例。审核模型在必要时进行干预OpenChatKit 的最后一个组件是一个由 GPT-JT 微调的 60 亿个参数的审核模型。在聊天应用中,审核模型与主聊天模型同步运行,检查用户话语中是否有任何不适当的内容。基于审核模型的评估,聊天机器人可以将输入的内容限制在经过审核的主题上。当然,这个审核模型只是一个基线,用户可以根据不同的需求进行调整和定制。在推理过程中,开发者进行了 few-shot 分类,将用户问题分为五类。聊天机器人只在问题落入允许的分类中时才会做出回应。参考链接:https://www.together.xyz/blog/openchatkit探寻隐私计算最新行业技术,「首届隐语开源社区开放日」报名启程春暖花开之际,诚邀广大技术开发者&产业用户相聚活动现场,体验数智时代的隐私计算生态建设之旅,一站构建隐私计算产业体系知识:隐私计算领域焦点之性分布式计算系统的短板与升级策略隐私计算跨平台互联互通隐语开源框架金融行业实战经验3月29日,北京·798机遇空间,隐语开源社区开放日,期待线下面基。原标题:《ChatGPT开源替代来了!参数量200亿,在4300万条指令上微调而成》阅读原文特别声明本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问http://renzheng.thepaper.cn。+1收藏我要举报查看更多查看更多开始答题扫码下载澎湃新闻客户端Android版iPhone版iPad版关于澎湃加入澎湃联系我们广告合作法律声明隐私政策澎湃矩阵澎湃新闻微博澎湃新闻公众号澎湃新闻抖音号IP SHANGHAISIXTH TONE新闻报料报料热线: 021-962866报料邮箱: news@thepaper.cn沪ICP备14003370号沪公网安备31010602000299号互联网新闻信息服务许可证:31120170006增值电信业务经营许可证:沪B2-2017116© 2014-2024 上海东方报业有限公