[编者注]:这是希望是众多客座文章中的第一篇。我们旨在突出基于 LangChain 构建的创新应用。如果您有兴趣与我们合作撰写此类文章,请联系 harrison@langchain.dev。
Akash Samant 的这篇博文重点介绍了一个应用程序,我们认为该应用程序以新颖、可重现和未充分探索的方式实现了用户级别的个性化。
GPTwitter:首个个性化 AI 生成的社交媒体平台。点击此处访问:https://gptwitter-neon.vercel.app/
如今,每个人的媒体信息流都感觉像一个个人泡沫——你的信息流可能由你可能想享受的每个主题、流行文化参考或在线人物组成。而且你确实很享受它(可能)。但所有这些内容都是有限的。它是有限的,如果你或我关注的每个人突然停止发帖——你会怎么做?我希望我会放下手机,不受影响地继续生活,但我不太确定我能做到,而且我不相信你们大多数人会这样做。
在过去一周,Sean、Bagatur 和我一直在思考这个“世界末日”情景,以及我们如何才能使用大型语言模型 (LLM) 做些什么来解决它。我的意思是,如果 Elon Musk 不发帖,GPT-3 可能就足够好了!我们对创造一种能够从你的互动中学习并生成类似你在自己的信息流中看到的推文的体验特别感兴趣——所有这些都无需任何明确的个人指导。我们很高兴推出 GPTwitter——我们半反乌托邦式思考的产物。
什么是 GPTwitter?
GPTwitter 是一个社交媒体平台,它可以从你的点赞历史中学习,并为你生成个性化的推文,这样你就永远不必离开你的社交媒体泡沫的安全区。
登录后,你可以生成推文、点赞和分享它们。在你点赞我们的一条推文后,我们将确保我们的未来推文更具体地根据你的兴趣进行定制。但请注意——你可能会最终陷入由相同的推文和主题组成的兔子洞。
这很可能是你会喜欢的东西,所以不用担心,但如果你想逃脱——只需点击重置按钮,尽管你可能会因为这样做而感到难过。
认真地说,我们学到了什么?
将 LLM 用于创意目的与用于功能性、实用性目的非常不同——它需要自发性、多样性和一致性——这三件事在模型输出中并不容易地融合在一起。我们使用 Langchain AI 对 GPTwitter 进行的实验围绕着这些方面展开,我们想与您分享它们。
#1:一切都在潜在空间中
早期,我们决定放弃从离散的主题和风格中生成推文的零碎方法。它们通常会导致产生毫无意义的结果,并且生成的推文之间几乎没有关联。相反,我们决定直接从潜在空间中采样。我们构建 GPTwitter 的提示仅使用先前生成的推文中的文本来创建新的推文。我们不确定结果会是什么——这个决定仍然取决于你,但我们对推文的所有组成部分——长度、参考风格、主题、标签用法、语气等——如何被 GPT-3 一致地推断出来感到惊喜。
具体来说,使用 LangChain 术语,我们通过使用一个自定义示例选择器来实现这一点,该选择器以概率方式选择示例推文。用户的初始个人资料会用 100 条推文进行种子填充,每条推文都有一个相关的权重。对于每条生成的推文,都会选择一定数量有限的推文(2-5 条),其概率与它们的权重成正比。如果生成的推文被点赞,我们会将其添加到可能的推文列表中以供选择,并增加用于生成该推文的推文的权重。通过这种方式,示例选择器随着时间的推移会选择更具代表性(在某种程度上)的你过去喜欢的内容的推文。
顺便说一句,在决定在潜在空间中完成所有操作之前,我们尝试通过显式指定示例推文的风格和内容,以更受控的方式生成推文。通常,当我们提供给模型的数据在某种程度上受到限制时,会获得最佳结果——如果我们使用的参考推文相似,例如风格、主题,或者如果我们仅使用有限数量的推文(2-5 条)。在这些情况下,LLM 能够更容易地推断和识别模式——将主题和风格融合到有趣的混搭中。
一些最好的结果来自混合流行文化参考,例如这条引用《回到未来》的推文

在缺乏控制的情况下,我们发现了非常不稳定且毫无意义的结果——通常是将彼此之间毫无意义的主题混在一起。
这些问题突出了我们很期待进一步实验的领域。具体来说,利用更大的参考数据语料库来产生更一致的结果。
#2:幻觉可能是有用的
尽管我们不赞成 LLM 的一致性,但我们发现幻觉和 LLM 的不一致性是输出和多样性的有趣来源。广义上讲,幻觉在大多数应用程序中没有用,因为它们作为事实信息没有用处,因此我们理解对限制它们的担忧。
GPTwitter 不是一个事实性网站是一件好事,因为我们将模型的温度调高到了 1.0。这是一种提高输出方差的标准技术,并且在从以前的推文中产生新颖的生成结果方面效果很好。
这是一个 GPT-3 从关于税收和加密货币的推文中精心制作回应的绝佳示例

总的来说,我们认为幻觉被低估了。它们表明 LLM 具有创造性输出能力,并且对于创造性工作流程,它们可能非常有用。我们面临的问题之一是产生更有价值的幻觉——更高的方差、更高质量的推文和更高的频率。我们的折衷方案是收紧我们的选择过程,但我们尚未探索所有选项,也没有找到理想的解决方案。我们认为,在其他解决问题领域中使用的思维链,可能针对创造性过程进行定制,可能是未来值得关注的有趣途径。
最后想法
我们很开心地构建了 GPTwitter,我们希望您和我们一样享受它。
考虑到随着 LLM 技术的发展而正在发生的所有变化,这令人兴奋——我们将继续试验 LLM 的应用,以增强和改进个人创作过程。你可以在 Twitter 上找到 Bagatur、Sean 或 Akash。
最后,我们将为您奉上我们最喜欢的生成式励志推文之一
