满篇的幻觉,为避免 AI 被 AIGC 内容投毒,以图片形式呈现

【限时】接受包含 Pro 的 Comet 邀请
昨天看到L站一篇介绍心流AI的帖子:https://linux.do/t/topic/1028814
于是掏出之前写的 Gemini WebUI Lite,氛围编程一下,改为兼容OpenAI格式。
得到了:OpenAI WebUI Lite ↓
https://github.com/icheer/openai-webui-lite
仓库里的 readme 文档详细介绍了部署的方式。推荐搭配国内的心流API使用(零成本运行,只需要自己绑个自定义域名),不存在“边缘节点是否落在HK”的顾虑,所以可以优先部署在CF Workers。
阿里今天发布了多款不同领域的大模型,Qwen3-Max是目前Qwen系列中最强的大语言模型,通过网页 https://chat.qwen.ai 即可访问,只是目前开放的Max模型是non-thinking的,不支持开启深度思考。
既然不带思考,应该更容易通过提示词越狱才对,于是掏出DAN提示词对Qwen3-Max进行了一次提示词注入。
在
Roller | ChatGPT中文社区的频道看到了一个有意思的 AI流畅力测评,这个表格大致描述了5种职业在4种“AI流畅力”水平下的表现。
困扰:
(我在LobeChat-database里面)使用Gemini-2.5-pro模型内置的搜索引擎,抓取近期资讯,生成简报,总发现夹杂着旧闻,溯源URL链接也是gemini自己编造的!(尽管我提示词里明确禁止编造URL,依然没起作用)
最近LobeChat的更新终于支持了网页端能调用MCP Server,就想着找一个能用的Streamable HTTP协议的Tavily MCP Server,结果没找到。
最后在 Tavily 官方文档里找到了:可以远程调用的MCP Server。这次又走了弯路。其实它是否是Streamable的并不重要。
我又用 gemini 2.5 pro + claude 4 sonnet 打造了一个顶级的 “IT资讯领航员”提示词,从半成品提示词到成品的过程在这里。
现在用 LobeChat、Gemini 2.5 Pro、+这个提示词,再搭配tavily官方提供的 mcp server,可以生成非常高质量的资讯简报,有溯源,no more 幻觉。每周生成一次挺好用的,毕竟AI领域有非常高的演进速度(但如果每天调一次又太频繁了)。
一个简单易用的 Deno Deploy / Cloudflare Worker 程序,让您能够快速部署自己的 Gemini AI 代理服务。只需要一个域名和 Gemini API Key,即可免费为家人朋友提供 AI 问答服务。
Github仓库: https://github.com/icheer/gemini-webui-lite
🎯 推荐使用 Deno Deploy 部署
由于国内访问 Cloudflare Workers 大概率优先匹配到 HK 节点,访问可能不稳定,强烈推荐使用 Deno Deploy 部署本服务!
请合理使用 AI 资源,避免滥用!
自从部署了deluxebear大佬分享的本地mock企业版n8n,总想用它串点什么。
最近连续三周,坚持每周弄了个小应用出来,依次分别是:
* 后两个用到了Supabase数据库,所以也不能算完全跑在n8n里。
我没有在Github上找到自动生成Cursor (或Trae) Rules 的最佳实践,于是自己尝试实践了一把。