1、GPT X LowCodeGpt 如何赋能低代码平台开发2023.05.01|姜天意 LLM Prompting 与低代码技术介绍 低代码模块接入 GPT 实战 GPT其它技巧与个人感想123目录不搞玄学,不搞跨界,只要有前端背景的都可以听懂1低代码与 LLM 提示工程介绍提示工程-什么叫提示工程-人说人话,GPT 说 GPT 话01设计最佳提示以指导模型执任务的法就是所谓的提示程(prompt engineering)prompt engineering 做得好 不仅可以提升回答的质量,也可以限制回答的格式这对后续跟其他系统的集成常重要提示工程是通用技术,适合于几乎所有大语言模型(Large
2、 Language Models,简称LLMs)指令 希望模型执的特定任务或指令 上下 可以包含外部信息或额外的上下,以引导模型更好地进响应 输数据 我们感兴趣并希望找到响应的输或问题 输出指示符 指示输出的类型或格式如何使用你的openai/chatgpt做提示工程测试01temperature(温度)简之,温度越低,结果越具确定性,因为总是选择概率最的下个词。提温度可能导致更多的随机性,励产更多样化或富有创意的输出对基于事实的问答任务使较低的温度值,以励更加准确和简洁的回答。对于诗歌成或其他创意任务,提温度值可能会更有益。top_p 类似地,通过top_p调节名为 nucleus samp
3、ling 的温度抽样技术,可以控制模型在成回应时的确定性。如果需要准确和事实性的答案,请保持较低的top_p值,如果希望获得更多样化的回应,请增加到较的top_p值。text-davinci-003和gpt-3.5-turbo有啥区别?text-davinci-003和gpt-3.5-turbo都是 OpenAI GPT-3 系列中的两个模型,区别在于性能和价格。性能:gpt-3.5-turbo相对于text-davinci-003在性能有所提。根据 OpenAI 的说法,gpt-3.5-turbo在许多任务中的性能与text-davinci-003相当或更好。这意味着,与text-davin
4、ci-003相,gpt-3.5-turbo可以在保持相同质量输出的同时更有效地完成任务。价格:gpt-3.5-turbo的价格相对于text-davinci-003更具竞争。使gpt-3.5-turbo的成本约为使text-davinci-003的1/4。这使得gpt-3.5-turbo成为许多应和开发场景中更实惠的选择。https:/ role 的解释与4096 token 的限制01系统消息(role=system)般于定义 GPT 对话的为,如:你是个 SQL 程师,擅写 SQL。gpt-3.5-turbo-0301 并不会把这个系统消息做很的优先度关注。未来的模型将被训练为更加关注系统
5、消息。https:/ 家族的语模型会使 Token 作为处理本的标识,来标识段本中的“词”。语模型会理解这些 Token 之间的关系,并能够预测系列 token 中的下个https:/ or tiktoken根据 openai 的建议,个 token 能写4个字,或者0.5个汉字。因此4000个 token 可以写2000字的中。输和输出都会计算 Token。如API 调在消息输中使了 10 个Token,您在消息输出中收到了 20 个 Token,则需要付 30 个 Token 的费。如果在调时候超了,会调失败。输出的时候超了,会被截断。因此你的 GPT 应,定要实现“试算 Token”的功
6、能。在段时间之内,“省 Token”都是 AI 应需要关注的重要问题户消息(rule=user)般是户的输以及开发者给 GPT 的些指令。助消息(rule=assistant)可以帮助存 GPT 的响应。当对话场景需要引之前的消息时,就需要维护好这个message数组,这就是所谓 GPT 对话的上下 or 历史记录。模型对过去的请求没有记忆,所以你如果想保持这个上下,必须维护好这个 message,然后在每次对话过程中,把完整的 message 传过去。因此,如果这些记录超过了模型的 token 限制,就需要以某种式缩短它。提示工程进阶-少样本提示(few shot)01通过多次提供 shot