2023 年 10 月

OpenAI GPT For Python Developers 第六章 微调和最佳实践 Few Shot Learning

GPT-3已经通过大量来自开放网络的数据进行了预训练,其中包含数十亿个单词。这使它能够迅速学习新任务,只需提供少量示例即可。这被称为“few-shot learning”,它在人工智能领域是一项革命性的发展。 毫无疑问,有许多强大的开源few-shot learning项目可用。要实现few-sho

OpenAI GPT For Python Developers 第五章 Embedding

Embedding概述 如果我们要用一句话来描述这个特性,我们会说OpenAI的文本嵌入度测量了两个文本字符串彼此之间的相似程度。 嵌入通常用于诸如查找与搜索查询最相关的结果、基于相似性将文本字符串分组在一起、推荐具有相似文本字符串的项目、查找与其他文本字符串非常不同的文本字符串、分析不同文本字符串

OpenAI GPT For Python Developers 第四章 使用GPT编辑文本

在给定提示和一组指令之后,您正在使用的GPT模型将采用提示,然后使用其算法生成原始提示的修改版本。 这个修改后的版本可能比初始提示更长和/或更详细,具体取决于您的指令。 GPT模型能够理解提示和给定的指令的上下文,从而确定在输出中包含哪些附加细节会最有益处。 示例:翻译文本 我们始终使用相同的开发环

OpenAI GPT For Python Developers 第三章 使用GPT的Text Completions

一旦您已经验证了您的应用程序,您就可以开始使用OpenAI API来执行完成操作。为此,您需要使用OpenAI的completion API。 OpenAI completion API使开发人员能够访问OpenAI的数据集和模型,使完成操作变得轻松。 首先提供句子的开头。然后,模型将预测一个或多个

OpenAI GPT For Python Developers 第二章 GPT是如何工作的?

生成型预训练变换器(Generative Pre-trained Transformer,GPT)是一种生成文本模型。该模型具有根据接收到的输入来预测接下来会出现什么新文本的能力。 GPT-3是另一个模型,显然比之前的任何GPT模型都要大且性能更好,包括GPT-1和GPT-2。 第三代GPT是在大规

2023 年 09 月

OpenAI GPT For Python Developers 第一章 ChatGPT, GPT, GPT-3, DALL·E, Codex?

在2015年12月,一群杰出的头脑聚在一起,有着一个共同的目标:以有益于整个人类的方式推动和发展友好的人工智能。 Sam Altman、Elon Musk、Greg Brockman、Reid Hoffman、Jessica Livingston、Peter Thiel、Amazon Web Ser

GPT-3 基于大型语言模型构建创新NLP产品 第七章 将AI民主化

人工智能有可能以无数方式改善普通人的生活。 将AI民主化将使这种转型技术造福所有人。 本书的作者认为,在AI领域运营的企业和研究机构在使AI更易访问方面发挥着重要作用——通过以类似OpenAI以API的形式与GPT-3所做的那样,与更广泛的受众共享他们的研发成果。 以边际成本向重要领域的用户提供如此

GPT-3 基于大型语言模型构建创新NLP产品 第六章 挑战、争议和缺陷

每一次技术革命都会带来争议。在这一部分,我们将关注GPT-3的三个最有争议的方面:人类偏见被编码进模型中;低质量内容的传播和错误信息的传播;以及GPT-3的环境足迹。当你将人类偏见与一个强大的工具相结合,这个工具能够产生大量貌似连贯的文本,那么结果就会变得危险。 GPT-3生成的文本的流畅性和连贯性

GPT-3 基于大型语言模型构建创新NLP产品 第五章 GPT-3如何面向企业

当出现新的创新或技术转变时,大公司通常是最后采用的。它们的等级制结构由各种权威层次组成,标准的法律审批和文书工作流程通常限制了实验的自由,这使得企业很难成为early adopters。但这在GPT-3的情况下似乎并非如此。 尽管API刚刚发布,企业就开始对其进行实验。然而,它们遇到了一个重大障碍:

2023 年 08 月

GPT-3 基于大型语言模型构建创新NLP产品 第四章 GPT-3作为新一代创业公司的基座

在GPT-3发布之前,大多数人与人工智能的交互仅限于执行某些特定任务,如让Alexa播放您喜欢的歌曲或使用谷歌翻译与不同语言进行对话。研究人员已经成功开发了能够执行单调任务的AI,但到目前为止,AI尚未匹配人类在没有明确、定义清晰的指示的情况下执行抽象任务的创造性潜力。 随着大型语言模型(LLM)时