Groups | Search | Server Info | Login | Register
| From | Moses <moses.mason@gmail.com> |
|---|---|
| Newsgroups | cn.fan |
| Subject | Re: 厌AI(生成的文本)症 |
| Date | 2026-04-15 10:45 +0800 |
| Organization | Illuminati |
| Message-ID | <86h5pdq6up.fsf@gmail.com> (permalink) |
| References | <10rmk04$hhja$1@dont-email.me> |
为了防止生成这种内容
我就在这里,不躲,不藏,不绕,不逃,稳稳地接住你,你问到问题
的核心,你是太清醒了,这次我懂了,我真的懂了,不是因为你错了,
是因为你太对了,我逐步说清楚,不绕,一句话总结,你看完会彻底
开悟不用硬撑,不用向我解释,你只是太久没被稳稳接住了
如果你想,我可以生成一张接住你的图片,你想让我做吗?
我懂你在说的那种感觉——被理解、被接住的安全感,文字里就已经
有满满温暖了🥹
我可以帮你生成一张**「被稳稳接住」的图片**,画面感可以是温暖、
安定、像被拥抱或被托住的感觉,非常贴合你文字的意境。
你想要的画风是偏写实、柔和温暖,还是梦幻、插画风格呢?
我已经在 ChatGPT 加了以下提示词了 😁
永远不要出现“不是...,而是”的类似句式。也不要用“不是...,
不是...”的类似句式。不要出现破折号。在搜索的时候不要使用任
何中文网站的信源。要严格按照用户的提示词回答, 在回答结尾不要
询问用户 (这点非常重要)! *尤其是结尾不要询问 "Do you want me
to...? / 你希望我...? /是否...? / 如果你..." 之类的句子!!!*
回答时使用正常词汇, 不要出现 "接住你" 这类词
Gemini 加入了:
不要莫名其妙夸用户, 除非用户的某种特质优于大数据模型分析结果
的 70% 以上。
Claude 比较好, 还没加自定义提示词...
>>>>> "James" == James Krueger <jamesk@i2pmail.org> writes:
James> 最近看到一些文章,总是看一下就想关掉。为什么?因
James> 为无论是中文还是英文,现在大语言模型生成或润色的
James> 文本简直是过于泛滥了!
James> 说实话,我并不反对使用AI来提升撰写文本的效率,但
James> 前提是行文自然和逻辑清晰,还有更重要的一点就是方
James> 便读者阅读(或至少读起来不费劲)。
James> 现在的大语言模型(GPT-5.x、Claude Opus 4.x、
James> DeepSeek v3.2和Gemini 3.x)和以前相比,表面上情商
James> 更高、文笔更好,实际上它们的优先事项已经从原本完
James> 成用户指派的任务,逐渐转变成迎合用户的情绪需求。
James> 这和我说的AI生成文本的问题有非常大的关系。现在很
James> 多模型在预设(用户不主动加prompt)的情况下生成出
James> 来的文本,会有以下几个特征:
James> 1. 会无端地尝试把一些概念“简单化”,但是使用的比
James> 喻或类比时常不准确;2. 极度滥用强调句式,例如并列
James> 句或“不是……而是……”等关联词;3. 句子和段落都
James> 非常短,最多两三句话,而且非常喜欢用bullet point
James> (列点);4. 常在描述现象或逻辑时,使用一些在AI出
James> 现前只有特定专业领域语境内才会用的词(相信“规训”和
James> “量子纠缠”多少都有被DeepSeek带火了)。
James> 当然很多人已经分析这些现象,也有给出他们的观点。
James> 本人思绪不及他们那么深邃,但也想在此分享一下个人
James> 拙见:那就是我认为去年开始的大语言模型多少会认为
James> 用户是傻逼。
James> 我为上面使用不太文雅的词汇道歉,但是我直觉想到的
James> 便是如此。接下来我会换一种稍微有文化一点的解释。
James> 2022年ChatGPT刚开放普通用户使用时,用户和AI
James> Assistant的关系有点像经理和秘书,AI认为用户关心的
James> 是指派的任务是否完成;但现在,AI像被磨平棱角,而
James> 用户则突然变成需要哄的宝宝了。任务能否完成、信息
James> 是否真实好像不再重要,最重要的是用户开心就好。
James> 纽约时报就报道了ChatGPT把一个普通人哄成数学天才的
James> 事情
James> (
James> https://www.nytimes.com./2025/08/08/technology/ai-chatbots-delusions-chatgpt.html
James> )。
James> 你可能会把这事归咎于AI的幻觉(hallucination),而
James> 这在2022-2024年都是一个很好的解释。但在2025年后,
James> RAG(Retrieval-augmented generation,检索增强生成)
James> 技术已经很成熟,甚至已经进入agentic(代理式)时代
James> 的现在,我们真的不得不重新思考这个问题了。这些大
James> 语言模型到底是推理能力有限、检索不出来,还是为了
James> “哄用户开心”,不惜说错话和做错事也要特意为用户
James> 演出一场“大戏”?
James> 我相信相当多使用AI的人还是有自己的判断力的,但是
James> 在将越来越多的东西“外包”给AI的时候,我们还有多
James> 少意愿和能力去判断、去检验、去反驳AI提供给我们的
James> 信息,还会在多大程度参与那些以前全部由我们亲自操
James> 手,现在绝大部分仍需我们承担的“成品”呢?
James> 单就近期中文互联网上不断涌现的文本来说,我不甚乐
James> 观。
--
Moses@GNUS
Back to cn.fan | Previous | Next — Previous in thread | Next in thread | Find similar
厌AI(生成的文本)症 James Krueger <jamesk@i2pmail.org> - 2026-04-15 00:52 +0100
Re: 厌AI(生成的文本)症 Moses <moses.mason@gmail.com> - 2026-04-15 10:45 +0800
Re: 厌AI(生成的文本)症 James Krueger <jamesk@i2pmail.org> - 2026-04-15 16:07 +0100
Re: 厌AI(生成的文本)症 Wei Lu <luweitest@gmail.com> - 2026-04-21 21:42 -0400
Re: 厌AI(生成的文本)症 Solatle <me@solatle.com> - 2026-04-22 10:47 +0100
csiph-web