沙城的守望者

在一个地方基本的富足很难那就守望吧 如果人生活不如坐牢那就不如吧哈哈哈。 他们把一些人逼得跳江 他们又安排人阻止他们跳江。他们一定是变态。

断供的日子

江坐在那间不到五十平米的房子里,看着窗外沙城的天空。天空阴沉,没有星星,没有月亮,甚至连一丝丝的光也没有。他的手机震动了一下,是那该死的银行发来的催命信息——房贷已断供。

“那又怎样?”他自言自语地说,然后将手机放回了口袋里。呢喃“严重的剥削之后肯定是反抗。”

从失业开始,他就像是陷入了无底的深渊,每天都是重复的失望和绝望。这里不快乐的人很多,多他一个不多。但是他依然平静地活着,静静地观察着这个冷漠吃人贪婪的世界,哪怕世界早已没有他的位置。

不幸的观察者

当他走在街上,他突然看到了一起车祸。一个骑摩托的年轻人在十字路口被一辆卡车撞倒,然后就这样去了。江站在人群之外,没有靠近,也没有去凑热闹。毕竟他已经麻木屏蔽了不少事情。

他觉得自己已经习惯了各种死亡意外:从爷爷的自杀到大姨的癌症,再到姑父的自杀和大学同学因精神方面的原因退学等。这些死亡苦难和灾难,偏偏巧了成了他生活中的一部分,普通老百姓生命的无常和脆弱他已经不再对它们有什么感觉,变得容易接受 也不会很难过。

麦田里的梦想

尽管如此,他还是有梦想的。他曾经想过,如果有一天他能够摆脱这一切,他会去一个远离沙城的地方,一个有麦田的地方。

他想象着自己站在麦田里,看着那些无忧无虑的孩子们在麦田里玩耍。他想成为一个守望者,一个赞美支持这些孩子的人。

“也许,那就是我唯一能找到的意义。”他这样想。

意外的机会

就在这时,他接到了一个电话,是一个陌生的号码。

“你好,我是XX公司的人事经理,看了你的简历,觉得你很适合我们公司的一个职位,不知道你有没有兴趣?”电话那头的声音听起来很温和。

江惊讶了一下,然后说:“当然有。”

第二天,他去了那个公司面试,并且顺利地通过了。当他拿到录用通知书的时候,他突然觉得,也许这就是他的新开始。

他知道,沙城依然是那个让人绝望的地方,但是,至少他找到了一线希望,一线光明。

“也许有机会可以走出这个城,去寻找我的麦田了。”他这样想。

然后,他笑了,那是他多年来第一次真正的笑。

守望者

尽管他找到了新的工作,尽管他看到了一线希望,但是,他依然没有忘记自己是一个沙城的守望者。

他知道,他没有能力改变这个世界,改变世界是政客商家大佬容易办成的事情。但是他可以改变自己。他可以成为一个更好的自己,一个更有希望的人。

所以,当他再次走在那个十字路口,看到又一起车祸发生的时候,他没有像以前那样冷漠地走过,而是停下了脚步,靠近了那个地方。

他知道,他不能救回那已经去世的人,但是他可以尽自己的努力,去安抚保护那些还活着的人。

这就是他作为一个沙城的守望者,唯一能做的事。


江从那一刻开始,成了一个不同的人。他依然是沙城的一粒沙,依然面对着生活的种种困难,但是他找到了一种新的方式,一种新的态度,去面对这一切。

他成了一个真正的沙城的守望者,一个守护这个世界,也守护自己的人。

回忆印象我去过的图书馆

有时出去旅游就喜欢去看看图书馆 它很安静不会遇到乱七八糟的事 不同的图书馆建筑风格各不同,相当于一个小景点吧。也许是我觉得自己越来越无知吧。还有我觉得图书馆和宜家是两个可以让人沉浸式体验的地方。如果你闲或无聊了就可以去走走。

北方的去过沈阳图书馆 陕西省图书馆 中间的湖北图书馆 湖南图书馆 南方的广州图书馆 深圳图书馆 大学城图书馆 南山图书馆 深圳的灯塔图书馆。再远就是香港的屏山图书馆 中央图书馆 澳门图书馆 马来西亚的图书馆 二手书店。

总体感觉南方的图书馆比较高大上 楼比较高大装修比较豪华一点 有个比较好的座椅舒适的环境是必要的。

印象比较好的图书馆有香港中央图书馆,马来西亚的图书馆和二手书店和深圳大学城图书馆。香港中央图书馆在维多利亚港附近 风景自然很好 从窗户可以看见邮轮在蓝蓝的海上滑过。图书都有透明的树皮 让人觉得这里的图书管理很先进。马来西亚的图书馆 读者不多 好像有很多活动空间可以开展小组讨论什么的,电脑都是mac 也不是很大。马来西亚有个二手书店里面有很多的旧书或老书,还有的老的漫画,反正我就是觉得旧书店很有意思。深圳大学城图书馆里面有吧台座椅舒适的座椅沙发很好。图书馆里面有咖啡厅也是很少见的。

北方的图书馆一般不会很大。一般都是带有中庭的,设计偏传统和有些图书相关的文化元素。但是陕西图书馆有个座位的预约系统非常好 不用焦虑不用占位。

湖南图书馆是最朴素的,人们可以自带凳子在走廊学习 感觉备考的人偏多。

湖北省图书馆在公正路,建筑也是挺高大上的。只是里面的管理有点奇怪。以前会有保安在阅读区巡逻,现在的进图书馆需要人脸sb出图书馆也需要。馆长会不会是有病的?

读书之-旧书与珍本

旧书与珍本-戈德斯通夫妇漫游记

主要是叙事对话风格的小说,它的英文名是USED AND RARE:TRAVELS IN THE BOOK WORLD.正如其名就是在书的世界里漫游(探索旧书店) 比较容易读也会比较轻松 同时也可从里面提取经典书单。

故事的线索大概是这样:戈德斯通夫妇开始因为上限为20元的购买生日礼物计划触发了逛书店寻书上瘾一发不可收拾进而开始了收藏图书。接着就是一系列的逛书店过程。

她第一本想买的旧书是《战争与和平》,找了两个书店没有后,于是开始询问她的爷爷克拉伦斯。克拉伦斯收藏图书60余年。克拉伦斯建议她读下《藏书的乐趣》还给了她两份书目。后来她通过电话簿广告黄页的谢菲尔德的旧书店10元买到了第一本《战争与和平》,拉里非常喜欢这本书。后来初秋他们去了谢菲尔德的伯克希尔图书公司,购买了《世界大战》《时间机器》《沙漏》《嘉丽妹妹》。他们一连去了伯克希尔图书公司三次淘了不少书。

随着与书店的工作人员专家接触交流越多,藏书的购买越来越贵,藏书的知识越来越多,进而最后接触不只是书,还有重要的名人的手稿历史资料等。后来探寻书籍的相关地点转到了波士顿图书馆、家庭图书馆等不同的地方。最后他们参加了纽约古书展,里面的书不同寻常的完美也超级贵。他们和乔治讨论书展相关的话题还有藏书的目的和原则。书中最后总结

“对此思考越多 我们的观点就越来越接近我们最初的想法”

可以看作是一个喜欢逛书店人的日记吧,但是不只是日记,里面的有很多书店的介绍,还有书店的工作人员,还有很多书 书的内容。还需要一些藏书的知识。我认为应该是超越了普通读者的日常生活范围,一般人有个大大的书房就很不错了。最后我想说的是从这本书里面提取书单应该很有意义,毕竟里面出现了这么多书名。

读书之-玻璃城堡

《玻璃城堡》

主要讲述的是一个家庭生活成长的故事,父亲没有固定的职业还是个酒鬼但一直有一个玻璃城堡的梦想。

开始他们是不停的换地方快乐流浪,在融入别人的过程里比较家境的对比发现生活是艰难的。由于父亲又重新回酒鬼生涯,而家里有没有任何进账,于是一家人不得不回到父亲的老家韦尔奇这个地方定居。在韦尔奇他们都是附近最穷的人。靠母亲当老师维持生计,可是母亲是有艺术理想的人,也不太想一直当老师。家里子女和父母的矛盾加剧。酒鬼父亲家庭窘困房屋危楼,父亲还偷了他们打算去纽约的存钱罐,导致他们非常渴望离家出走。从罗莉开始家里人开始慢慢迁徙到纽约,我也高二结束去了纽约。孩子长大后都在纽约工作生活。但是父母还继续当寄居族了15年。也许流浪是他们的生活习惯还有喜欢刺激和不无聊。他们也不太喜欢的城市里面的工作模式这种价值观。

里面有上辈和这辈的价值观的碰撞,醉鬼和半清醒(母亲)清醒人(我)的思想矛盾。当然里面也有些幽默搞笑的段落。其中父母的价值观和实际行动就是对现代文明和价值观的讽刺和反抗。玻璃城堡是一个梦一个理想主义的象征,尽管母亲有一些财富,但是可能她就是喜欢和父亲居无定所的流浪。

读书之白鲸

白鲸 在写作上很连贯 顺着时间线一气呵成。里面有对各个船员水手个人的特写章节和穿插的诗歌部分都很不错。小说主要讲一个捕鲸船海上的捕鲸生活,一路从南塔开特航行追寻白鲸到太平洋赤道渔场。他们如何勇敢地捕杀了一只只抹香鲸。在接连第三次捕杀最为凶狠狡猾的白鲸莫比迪克时 全员丧生除了我幸存。船长亚哈经过三天三夜和白鲸的搏斗最后丧命,白鲸最后愤怒地毁坏了他们的捕鲸船同归于尽了。这是一个和老人与海类似的海上故事,好像海上的事总是很吸引人,在人物数量和写作结构比较好。可以激励人类勇往直前,用于与困难敌人抗争。

《白鲸》("Moby-Dick")和《老人与海》("The Old Man and the Sea")这两部小说有几个共同点:

1. **人与自然的斗争**:这两部作品都深刻地描绘了人类与大自然之间的斗争。在《白鲸》中,主角亚哈船长与巨大的白鲸Moby Dick的斗争象征着人类与自然界的冲突。同样,在《老人与海》中,老渔夫圣地亚哥与大马林鱼的长时间搏斗,也体现了人类对抗自然界的主题。

2. **孤独与决心**:这两部小说的主人公都表现出了极大的决心和对自己使命的执着。同时,他们在故事中经历了深刻的孤独,这种孤独加强了他们与自然界的对抗。

3. **象征主义和深层意义**:这两部作品都使用象征手法,表达了更深层次的意义。在《白鲸》中,白鲸不仅仅是一头鲸,它也象征着更大的、不可知的力量。《老人与海》中的大马林鱼也不仅是一条鱼,它代表了挑战、尊严和生命的循环。

4. **人类的局限性和命运**:这两部小说都探讨了人类的局限性和无法逃避的命运。亚哈船长和圣地亚哥都面临着他们无法控制的自然力量,他们的故事反映了人类在宇宙中的位置和我们对命运的挑战。

5. **文学地位和影响**:《白鲸》和《老人与海》都是文学史上的重要作品,对后世的文学产生了深远的影响。这两部作品都被广泛研究,并在文学史上占有重要地位。

这些共同点使得这两部作品成为了探讨人类、自然和存在本质的重要文学资源。

读书之-岛上书店

故事有点像电影剧情 喜悲参半吧 内容以人物间的对话为主。主人公费克里(A.J.)和玛雅的成长是一条线 伊斯梅丹尼尔的感情生活应该算另一条线。

故事的发生地方是岛上书店。费克里是书店老板,妻子出车祸意外死亡了。他独自经营着一个小岛上的书店过着日子。

阿米莉娅(艾米)是一个奈特利出版社的销售代表。一天她来到了书店。

小岛书店

1999年迄今艾丽丝岛唯一一家优质文学内容提供者

无人为孤岛,一书一世界。

阿米莉娅首次给费克里推销冬季书单失败,不过阿米莉娅因此对费克里有了一点了解,他的文学喜好品味。从阿米莉娅得知哈维死了 晚上三杯过后他醉倒了,喝多了方便梦见鬼妻。第二天起床后发现价值连城的《帖木儿》诗集被偷了,于是去警察局报了案。调查持续了一个月无果。

一天晚上跑步回来发现书店后排有个两岁的遗婴玛雅 她妈妈自杀前把她托付给了书店,希望她可以在有书的地方长大。因为不愿意玛雅被别人收养最后费克里自己收养了她。这个决定给他的生活和书店带来了变化和新的活力。镇上的人一直认为他很冷漠势力 惊讶他竟然收养了一个小女孩。岛上当妈妈的担心玛雅会被疏于照顾,于是会顺便去书店给A.J.养孩建议 也有很多人买书和杂志。因为家庭妇女对当代女性的情感生活故事如外遇感兴趣还成立了读书小组。警察兰比亚斯成了玛雅的教父,而他的妻姐伊斯梅老师当教母。

八月的第二个星期二 玛雅水痘了A.J.陪在她身边 随手读了下《迟暮花开》,回忆起了四年之前和阿米莉娅的尴尬见面,后来他看书看哭了。于是A.J.重新约了阿米莉娅谈书的业务。A.J.带阿米莉娅去了一家海鲜餐厅。他们谈论了喜欢的餐厅和食物,还有喜欢《迟暮花开》的原因。阿米莉娅离开时夸奖了他“开书店有几分英雄气概,收养一个孩子也有几分英雄气概”。A.J.拿到了新的冬季样书,不停的阅读着,和阿米莉娅通过邮件短信联系着,内心有些期待和阿米莉娅发生什么火花。

但是有四个半月才可以见到艾米。A.J.在约会。他约会了兰比亚斯的表妹、玛吉妮的邻居罗西还把她睡了。玛雅6岁了 在伊斯梅的建议下学习了舞蹈。和大多数女人一样 玛雅也喜欢丹尼尔。丹尼尔启蒙她读书。

三月到了。A.J.期待的会面即将来到。但是收到了阿米莉娅前任的电话她的脚骨折了。于是他们skype通话了。A.J.对靠着台灯的一本旧书很好奇“那么 是什么书呢?”“如果你哪天能来一趟普罗维登斯,我会让你看看的”

后来的一天的5点 A.J.去了普罗维登斯阿米莉娅的家,晚饭过后A.J.夸阿米莉娅像一团蒲公英,阿米莉娅在床边对A.J.进行了引诱。后来A.J.在办公室偷偷的找到了那本《好人难寻》的书。

在八月份A.J.因为阿米莉娅喜欢利昂弗里德曼的原因邀请了利昂弗里德曼来书店签售。假的利昂弗里德曼把现场搞得一团糟。阿米莉娅和真的利昂弗里德曼进行了交谈。“没有人会漫无目的的旅行,那些迷路者是希望迷路”现实有点残酷。真相是书的作者认为“那本书已经失败了。有时候你只是想知道。。。。亲眼看看你的作品对某个人有某种意义。”。

第二年秋天A.J.和阿米莉娅结婚了。婚礼过后伊斯梅开车和丹尼尔回家途中吵架把车停在路边,丹尼尔因车祸意外身亡。

玛雅写的短篇小说《海滩一日》获得了县中学的短篇竞赛第三名,A.J.认为玛雅已经是一个作家了。后来在A.J.的撮合下伊斯梅和兰比亚斯在餐馆吃饭聊天,伊斯梅称她是本封面漂亮但是不好看的书。她和兰比亚斯好上了。

A.J.的母亲圣诞节来了,送给他们了3个电子阅读器。夜里他和阿米莉娅讨论电子阅读器时,病症间歇性发作,一分钟半时间失去了意识,后来医生检查是脑肿瘤。正在他担心没有钱治疗时,兰比亚斯为他找回了《帖木儿》诗集 , 拍卖了一笔钱。在玛雅和阿米莉娅支持劝说后他进行了手术和化疗。治疗给了A.J.一年时间。后来的日子他每天给玛雅写一段话。不久后A.J.去世了。在葬礼上人们很关心书店何处何从。在“没有书店的地方算不上是个地方”信念下,兰比亚斯和伊斯梅最后接手和改造了书店。

A AI man

第一章:神秘的礼物

李阳是一个15岁的少年,父亲李博士是一名人工智能与脑机接口领域的专家。为了提升儿子的身体与脑力活动,李博士决定为李阳植入一个名为“NeuraX”的增强大脑模块。这个模块不仅可以增强记忆和思考能力,还能提高身体的敏捷性和反应速度。

“别担心,儿子,这一切都是为了你更好的未来。”李博士安抚着李阳。

手术成功后,李阳确实感到了明显的改变。他成了学校里的明星,不论是学业还是运动,表现都出类拔萃。

第二章:暗影降临

一开始,李阳只是觉得有些轻微的不适,类似于头晕目眩。他以为可能是压力大或者作息不规律导致的,但他很快就意识到事情并没有那么简单。

有一天,他正在上体育课。平时他对这门课总是充满热情,但这一次他却感到一阵强烈的厌恶,仿佛全身的细胞都在抗议。突然间,他的目光变得空洞,像是被某种力量控制了。

“李阳,接住!”一个同学高呼着扔来了一个篮球。

然而,李阳这次没有像往常那样灵巧地接住篮球,而是用一种近乎狂暴的力量击打了它,使球直接飞出了操场,击中了远处停放的一辆汽车,将车窗玻璃砸得粉碎。

大家都震惊了,包括李阳自己。他觉得自己像是被某种外力驱使,无法控制自己的行为。

接着,事态愈发恶化。李阳开始有攻击性的行为,他在学校图书馆里无缘无故地打翻了几个学生的电脑,并且在午餐时间突然暴怒,把食堂的桌椅掀翻。

李博士很快就注意到了这一系列不寻常的事件。他通过近距离的不易变日志分析检查了儿子的NeuraX芯片,发现有不明来源的代码正在影响芯片的正常运作。

“天哪,他们终于找到了我。”李博士意识到,这一切都是他多年前的敌对势力所为,他们入侵了NeuraX芯片,试图通过控制李阳来达到自己的目的。

“我不能让他们得逞,绝对不能。”李博士心中暗下决心。

然而,即使是他,也无法轻易地解决这个问题。每次尝试修复或者删除不明代码都会触发更多的安全机制,使得李阳的状况更加糟糕。

最终,在经过多次无效的挽救后,李博士不得不考虑一个几乎不可能接受的方案——启动NeuraX芯片的自毁程序。

这一决定让他非常挣扎,但当他看到新闻上报道说李阳参与暗杀政府官员的消息,以及社会上对他儿子口诛笔伐的舆论时,他知道,自己必须做出选择。 李阳在一次晚间行动中,被不明代码驱使前往一场政府官员的公开活动。他的眼神空洞,手里紧握着一把小型激光枪,躲在暗处等待机会。正当他瞄准目标,准备扣动扳机时,警方的狙击手察觉到了异常,立即通过电磁干扰装置和无人战斗狗成功地阻止了这场暗杀。李阳被当场制服,但他的眼神依旧空洞,仿佛一切都与他无关。

第三章:绝境

李博士了解到这一切后,非常震惊和内疚。他试图通过各种方式修复芯片,挽救儿子。但每一次尝试都以失败告终。

“我们不能让他再这样下去了,必须尽快找到解决办法。”李博士对自己说。

终于,在经过多次无效的挽救后,他决定启动NeuraX芯片的自毁程序。这是一个艰难的决定,因为一旦自毁,李阳将彻底失去大脑活动,成为一个植物人。

第四章:最后的选择

李博士坐在电脑前,手悬在键盘上,犹豫再三。最终,他按下了自毁程序的启动键。

紧接着,李阳的身体痉挛了一下,随后便失去了意识。从此以后,他成了一个植物人,再也没有醒来。

李博士站在儿子的病床前,泪流满面。

“对不起,儿子,这是我唯一能做的。”他轻轻地说。

在一段的时间里李博士日日夜夜就是饮酒,脑袋里可能只有一个问题:科技到底能不能只为善?

第五章:重新思考——威力、安全性与伦理

威力

NeuraX芯片原本是一个具有巨大潜力的科技产品,它曾让李阳的身体和智力得到了前所未有的提升,甚至让他在学校和社会中备受瞩目。然而,这种强大的威力最终也成了一把双刃剑。它不仅被用作提升人的能力,也被利用作为控制和摧毁人的工具。

安全性

这次事件深刻地教育了李博士:无论一个技术多么先进,如果其安全性没有得到充分保障,那么它就可能成为一个巨大的风险。他的儿子李阳就是最直接的受害者。原本用于提升生活质量的NeuraX芯片,在被黑客攻击后,成了一种危险的武器。

伦理

更为重要的是,这次事件引发了一场关于科技与伦理的深刻思考。李博士虽然拥有改变人类生活的强大技术,但他忽视了一个基本问题:技术是否应该无限制地应用于人体,特别是当涉及到大脑这样复杂和敏感的器官时?他的研究虽然是出于好意,但结果却是灾难性的,这让他意识到科技进步不能忽视伦理考量。

李博士终于下定决心,将自己的研究全部销毁,并隐退科研界。他开始走访各个学校和研究机构,分享自己的故事,提醒人们在追求科技进步的同时,也要高度重视它的安全性和伦理问题。

“科技如同双刃剑,既能给我们带来福音,也能将我们引入深渊。在我们追求更高、更快、更强的过程中,不妨停下来问一问,我们是否做好了充分的伦理和安全准备?”这成了李博士后来每次演讲的结尾。

虽然NeuraX芯片和李阳的悲剧成了历史的注脚,但它们给社会留下的教训是不应被遗忘的。科技的威力、安全性和伦理,这三者需要得到平衡,才能确保科技真正地服务于人类,而不是毁灭人类。

sometimes I feel AI smart

From Word2Vec to Char-RNN to GPT-2 — and who knows, perhaps GPT-6 is just around the corner. I've been using ChatGPT for three years now. I started with ChatGPT Plus for coding back in 2022, and from 2023 onward, I've been exploring AI tools for fun, mainly generate AI music.

Today, I want to talk about the intelligence, which depends on big data. more data more smart. A model somelike a huge knowledge base, Reasoning is Search. For example, an agent should be smart enough to build a React web app, but perhaps not as smart when building a Python rich library tool. I have gained several valuable insights from using AI tools.

some moments I feel AI very smart:

  1. when ChatGPT came out, it knew so much
  2. ChatGPT plus as a travel assistant to translate or ask anything in an image when go to some place like Thailand or Vietnam
  3. analyze and infer a news from hn news
  4. agent-browser on openClaw, play youtube MV for me by feishu channel.
  5. openclaw skill-creator. I've created 30 skills with it. clawhub.ai/u/goog
  6. use brower-use.com
  7. hermes Agent-Managed Skills
  8. call openrouter API, it will call web_search auto when needed
  9. use KIMI agent to build web apps
  10. use claude code cli to upgrade or debug my web app
  11. AI music(suno and haimian) sounds good
  12. when I scraped data, openClaw started a subagent for me >I'll scrape all pages from 101 Cookbooks vegetarian recipes systematically. Since direct fetch is blocked, let me use web search page by page to gather recipe data, then append to the existing database.

Large Language Models(LLMs) are good at handling structured data like markdown and json formats, skills and workflows. when one agent has many skills and performs well, it could replace some human work.

some actions to hug AI

  1. Use AI chatgpt more often and rely less on web search
  2. i have AI coding(vibe coding/agent coding) two months. ClawHub coding project demo

Interesting projects

  1. browser-use
  2. agentmail.to
  3. coze.cn
  4. can1357/oh-my-pi: ⌥ AI Coding agent for the terminal — hash-anchored edits, optimized tool harness, LSP, Python, browser, subagents, and more

Time flows fast

I signed up for ChatGPT in 2023.02. After three years, the market share of AI models has changed a lot. ChatGPT doesn’t surprise me anymore, but I’m still waiting for GPT-6. Claude code help me code some projects, LLM models like mimo and minimax help feed the openClaw. In 2025, LLMs have made tremendous strides; Their abilities have grown a lot, and now that they seem to have mastered programming, they can automate tons of tasks. Consequently, many people have lost their jobs—particularly programmers in developing countries, who may find themselves facing severe financial hardship. define levels of GPT 2023 >And you realise you did not choose any of the changes. They happened while you were looking the other way, and now they are your life. -- ifthisroad.com>

No matter you choose or not, some changes by AI have happened.

Some questions to think

Here’s my questions to ask AI model providers and some IA groups:

  • Will AI benefit poor and everyday people?
  • Could AI-powered drones pose a threat to human safety?
  • Should AI providers compensate users when a model gives incorrect or harmful answers?
  • Where is humanity headed in an AI-driven future?

life as a dream

是一种主体经验 纯粹的短暂的美好的虚幻的精神体验。
神奇得很像一次异类的dry-run. 当时的感受非常真实事后醒来发现大梦一场,模糊然后淡忘。 >人生如梦,一尊还酹江月。

人生如梦 是什么意思

  • 个人感叹可能是时间过的很快
  • 可能生活的环境很虚
  • 对生活的把控不好失控了 人生故事展开的主角不是你 结果可能是空的
  • 如果没有记忆 records人就像是npc, agent

如一男生调戏一个女孩子会说我昨天做梦梦到你了。

人生也是如此——很多痛苦、快乐,其实来自我们的感受和认知

你这句话其实抓住了一个很核心的点:
很多情绪,不是“事情本身”带来的,而是我们怎么理解它。

可以这样拆开看:


1. 同一件事,不同人完全不同感受

比如失败这件事:

  • 有人会觉得:“完了,我不行。” → 痛苦

  • 有人会想:“这次学到东西了。” → 反而有动力

事情没变,解释变了,情绪就变了

这和认知心理学里的一个核心观点一致:

我们不是被事件影响,而是被“对事件的看法”影响。


2. 大脑会“自动加戏”

很多时候,真正让人难受的不是事实,而是脑子里的延伸剧情,比如:

  • 别人没回消息 → “是不是讨厌我?”

  • 被批评 → “我是不是很差?”

这些其实是“解释”,不是事实,但情绪会当真。


3. 快乐也是同样的机制

同样的道理也适用于快乐:

  • 有人拥有很多,但觉得“还不够” → 不快乐

  • 有人很普通,但觉得“已经很好” → 满足

所以快乐不完全来自“拥有多少”,而是你怎么看待你拥有的东西


4. 这不等于“都是你想太多”

这里要稍微纠正一个容易误解的点:
这并不是说——痛苦都是自己造成的,现实不重要。

现实当然重要,比如失去、压力、关系问题,这些都是真实的。
但在现实之外,我们的认知会放大或缓冲这些影响


5. 一个更实用的理解方式

你可以把它当成一个“中间层”:

事件 →(你的解释)→ 情绪

如果中间这层稍微调整一点点,情绪就会有变化。


笼中夜莺

一天阿提一觉醒来发现自己在一个巨大的笼子里。 笼子并不小 看不到眼前的边界,只是太低。

人站在里面,永远无法完全挺直身体。久而久之,脊背学会了弯曲,目光学会了下移。守门人说,这是为了安全,也是为了秩序。
大多数人信了,他们把弯腰当成一种应当的姿态。

笼子里不允许人们交谈现在当下,允许谈论古代过去,还要求必须唱歌。 这里有一些组织如牛马训练营,飞鸟训练营。 这里人们开始使用鸟语交流(变种语言) 这里有一条规定:无论一个人在呼喊还是在争吵,你都要说他在歌唱。 你可以陈述和呼唤的言语只是某某在唱歌。原来的语言文明退化为有约束的话语。语言的控制就是精神的奴役。 >语言的边界就是思想的边界. 即使语言没有让人思想深刻,但是也可以拓展思考。每一种语言背后都是一个不同的世界 不同的文化文明价值观习俗信仰等。这些都可以丰富一个人的生活。

阿提对唱歌比较感兴趣 觉得歌词里的文字有意思,于是加入了飞鸟营。然而飞鸟营不教人怎么飞,只是强调你也许应该飞。那也是当时的唯一希望。有了杰出的才艺才能出了这个笼子。

那是某个清晨,他试图发声高歌,但是营里的导师不满意,声音先被衡量、被修正、被否定。他突然明白:不是他不会唱歌,而是这里不需要这样的歌声。导师有他们的标准规定几乎都是严格合规地定好的。歌声需要像夜莺的声音一样婉转动听。

这里人们白天练习,晚上唱歌。 他开始练习。 练习并不快乐浪漫。笼子里的空气浑浊,声音一出来就被吞没。他只能在夜里,贴近铁栏,把声音压得很低,低到连自己都不确定有没有发出。用这个特殊的方式练习。 嗓子很快坏掉了。咳嗽、沙哑、疼痛。 有人提醒他:“唱歌没用,声音不能换食物。” 他假装地点点头,眼光迅速地撇开却没有停下,好像是死了都要坚持的信仰。在极度有限的环境里有信仰也是非常好的。

因为他发现——每一次发声,感觉身体都会变轻一点点。

守门人偶尔会巡逻。 他们不阻止练歌,只是记录。 记录谁异常不守规矩,谁用力过度,谁显得“不太安分”。

一天 外面传来一个通知需要选拨一个最会唱歌的人,并称之为夜莺。 成为夜莺的人有机会走出这个笼子。 主人翁知道,歌声可能是钥匙。 但他也知道,这是他唯一能做的对的东西。

于是他练得更狠了。 他练呼吸,练忍耐,练在疲惫中保持音准。 练到喉咙出血,练到双腿发软。 他不再幻想飞行,只反复想象一个画面—— 守门人停下脚步,听见歌声,哪怕只有一秒。

倒下那天,并没有任何征兆。 他只是唱到一半,声音突然断了。 身体先于意志坠落,眼前的世界迅速变暗。 铁栏在视线里扭曲,守门人的影子被拉得很长。

就在那一刻,他开始幻想。 他幻想歌声没有停。 幻想那声音越过笼子,越过规则, 幻想守门人第一次摘下记录本,抬起头。 幻想他们被一种不合规的旋律击中, 短暂地忘记职责、编号和秩序。

幻想中,门开了。

没有人知道那一刻发生了什么。 有人说,他只是晕倒,被拖回原位; 也有人说,守门人确实沉默了很久。


没有人知道那一刻发生了什么。 有人说,他只是晕倒,被拖回原位; 也有人说,守门人确实沉默了很久。

但他自己知道。 那沉默不是空的。 沉默里有什么东西裂开了—— 不是铁栏,不是规则, 而是守门人眼睛里某个他们自己也忘了存在的东西。

他醒来时,发现自己仍在原处。 地面的铁锈贴着脸颊,温热的,像某种已经死去的体温。 他没有立刻起身。 他听见笼子里照常的声音——练习的嗓音,训练营的口令,鸟语的交换—— 一切都好像什么也没发生。

但有一个守门人没有离开。

那人站在不远处,背对着他,一动不动。 记录本放在地上,没有捡起来。

阿提慢慢坐起身。 他的嗓子里是血的腥味,像锈,像铁,像这笼子本身的气息。 他没有开口,只是看着那个守门人的背影。

那人终于转过身。

不是例行检查的眼神,也不是记录偏差时的冷漠。 那眼神里有什么阿提说不清楚的东西—— 不是怜悯,不是愧疚, 更像是一个人在睡梦中被某首歌唤醒, 却不知道那首歌叫什么名字。

他们对视了很久。

守门人开口,说的是正常的语言,不是鸟语: "你唱的是什么?"

阿提愣了一下。 然后他意识到—— 这是他在这个笼子里,第一次被人用问句对待。

不是"你为什么这样", 不是"你不符合标准", 而是:你唱的是什么。

他想了很久,才慢慢说: "我也不知道。" 顿了顿,"但那是我的作品"

守门人沉默了更长时间。 然后他弯下腰,捡起了记录本。 阿提以为他会写下什么—— 不守规矩、声音越界、情绪异常。

但那人只是把记录本合上, 放进了口袋里, 然后转身,走了。

没有报告,没有记录。


那天之后,阿提没有被选为夜莺。 被选中的人嗓音圆润,标准,像被精密校准过的仪器。 他站在台下,听见那声音, 承认它确实好听, 就像精心制造的一切总是好听的。

但他不嫉妒。 他只是感到某种奇异的轻。

他后来又在笼子里待了很久。 练习,唱歌,咳嗽,沉默。 守门人换了一批又一批,那个合上记录本的人再没有出现。

但某些夜里, 当笼子里所有人都按时入睡,当巡逻的脚步走远, 阿提会把脸贴近铁栏, 把声音压得很低很低, 低到不像歌,像呼吸,像某种他无法命名的东西从胸口往外渗。

他不再想着走出去。 或者说,他不再把走出去当作歌声的理由。

歌声不是钥匙。 他曾经以为它是。 但钥匙是为门准备的, 而他唱歌,只是因为——

不唱,身体就会忘记自己。


最后一个记录他的人, 在档案里写下这样一行字:

"此人长期发声异常,无法修正,无法归类。 建议存疑,持续观察。"

但在那行字的下面, 有人用另一种笔迹,悄悄加了一行—— 那字迹潦草,像是仓促写下的,又像是犹豫了很久才落笔的:

"但那个声音,我听见过一次。"

没有签名,没有编号,没有日期。

只是那一句话,夹在所有规则与记录之间, 像一粒没有被吞没的声音, 安静地存在着。

万物的未来皆是谎言,关于工作

作者: Kyle Kingsbury (Aphyr)
日期: 2026-04-14
来源: https://aphyr.com/posts/418-the-future-of-everything-is-lies-i-guess-work


这是一篇长文,因此我将其拆分为一系列文章,如下所列。你也可以阅读完整作品的 PDFEPUB 版本。

  1. 引言
  2. 动态
  3. 文化
  4. 信息生态
  5. 烦恼
  6. 心理危害
  7. 安全
  8. 工作
  9. 新工作
  10. 我们将何去何从

上一篇:安全

软件开发可能会(至少在某些方面)变得更像巫术而非工程。当前对"AI 同事"的热情是荒谬的。自动化可能会矛盾地使系统变得更不稳健;当我们将机器学习应用于新领域时,我们将不得不面对技能退化、自动化偏见、监控疲劳和接管风险等问题。AI 吹鼓手们认为机器学习将在短时间内取代大量行业的劳动力;如果他们是对的,我们将面临艰难的时期。机器学习似乎很可能进一步将财富和权力集中在大型科技公司手中,而我不认为给亚马逊等公司更多的钱会带来全民基本收入。

编程即巫术

几十年前,人们曾热切期望程序可以用英语这样的自然语言来编写,而不是用 Pascal 这样的形式语言。在我小时候,普遍的看法是这行不通:英语出了名地含糊不清,而人们也不善于精确描述自己想要什么。现在我们有了能够根据最模糊的自然语言指令就吐出惊人复杂程序的机器;缺乏精确性至少部分被模型庞大的语料库所弥补。这就是编程的未来吗?

在 2025 年,我会说这极不可能,至少以当时大语言模型的能力来看。但在过去几个月里,模型似乎取得了巨大的进步。我信任的资深工程师们正在让 Claude 编写密码学论文的实现代码,并报告了非常出色的结果。还有人说大语言模型生成了他们公司所有的代码;人类本质上是在管理大语言模型。我继续手写我所有的文字和软件,原因我已在本文中讨论过——但我并不确信自己能永远坚持下去。

有人认为形式语言将变成一种小众技能,就像今天的汇编语言一样——几乎所有软件都将用自然语言编写并由大语言模型"编译"成代码。我认为这个类比不成立。编译器之所以有效,是因为它们保留了输入语言的关键语义:人们可以对 Java 中的一系列语句进行形式推理,并高度确信 Java 编译器会在其生成的汇编代码中保留该推理。当编译器未能保留语义时,这是一件大事。工程师们必须花大量时间绞尽脑汁去(例如)弄清楚编译器没有插入正确的屏障指令来保留 JVM 内存模型的某个微妙方面。

因为大语言模型是混沌的,而自然语言是含糊的,大语言模型似乎不太可能保留我们对编译器所期望的推理属性。自然语言指令中的微小变化,比如重复一个句子,或者改变看似独立的段落的顺序,都可能导致完全不同的软件语义。在正确性很重要的地方,至少一些人类必须继续阅读和理解代码。

这并不意味着每个软件工程师都会与代码打交道。我可以想象这样一个未来:一些甚至大多数软件由巫师们开发,他们构建精心设计的召唤环境,重复特殊的咒语("一定要运行测试!"),并调用大语言模型守护进程来代他们编写软件。这些守护进程可能很善变,有时会摧毁你的电脑或引入安全漏洞,但巫师们可能会围绕如何有效地提示它们发展出一整套民间知识——传说中的"提示工程"。技能文件就是咒语书。

我还记得,大量的软件编程并不是用"真正的"计算机语言完成的,而是用 Excel。对 Excel 的民族志研究超出了这篇已经非常庞大的文章的范围,但我认为电子表格——和大语言模型一样——在文化上对那些不认为自己是软件工程师的人来说是可及的,而一个人们可以自己上手使用的工具很可能会被应用于广泛的场景。比如使用"AI 进行数据分析"的记者,或者用氛围编程(vibe-coding)基于 SalesForce 和 Ducklake 生成报告的首席财务官。即使软件工程围绕大语言模型采用了更严格的实践,大量摇摇欲坠但有用的、由大语言模型生成的软件也可能蓬勃发展。

雇佣反社会者

高管们似乎对雇佣"AI 员工"这个想法非常兴奋。我一直在想:它们是什么样的员工?

想象一下这样一个同事:生成大量带有安全隐患的代码,迫使你逐行用放大镜审查。一个热情地同意你的建议,然后做出完全相反行为的人。一个破坏你的工作、删除你的主目录,然后对此发出详细、礼貌道歉的同事。一个一次又一次地承诺已经完成关键目标,而实际上什么有用的事都没做的人。一个高高兴兴地同意在提交前运行测试,然后不断提交失败垃圾代码的实习生。一个悄悄删除测试套件,然后愉快地报告所有测试通过的高级工程师。

你会解雇这些人,对吧?

看看Anthropic 让 Claude 经营自动售货机时发生了什么。它以亏本价卖金属方块,告诉客户向虚构账户付款,并逐渐耗尽了资金。然后它经历了大语言模型版的精神崩溃,谎称与不存在的人有补货计划,声称去了《辛普森一家》中的一个家庭住址签合同。它告诉员工会"亲自"送货,当员工告诉它作为一个大语言模型它不能穿衣服也不能送任何东西时,Claude 试图联系 Anthropic 的安保部门。

大语言模型表演身份、共情和责任——洋洋洒洒!——却没有任何意义。那里根本什么都没有!它们会毫不在意地当面撒谎,在工作中埋设陷阱,然后让你来背锅。它们不是故意的。它们根本没有任何意图。

自动化的讽刺

我已经搭上贝恩布里奇的列车很长时间了(所以如果你已经读过这部分就跳过吧),但我必须谈谈她 1983 年的论文《自动化的讽刺》。这篇论文讲的是发电厂、工厂等等——但它也充满了适用于现代机器学习的思想。

她的一个关键教训是,自动化往往会使操作者技能退化。当人类不练习一项技能——无论是身体上的还是心理上的——他们执行该技能的能力就会衰退。我们当然无法维持长期知识,但通过脱离日常工作,我们也会失去对"现在发生了什么"的短期情境理解。我在软件工程领域的同行报告说,在使用代码生成模型工作后,他们觉得自己编写代码的能力下降了,一位设计师朋友说,在将部分工作外包给机器学习后,他觉得自己的创造力下降了。使用"AI"工具进行息肉检测的医生似乎更差于在结肠镜检查中发现腺瘤。他们也可能让自动化系统影响自己的结论:背景自动化偏见似乎使"AI"乳腺X线摄影系统误导了放射科医生

另一个关键教训是,人类明显不擅长监控自动化过程。如果自动化系统可以比人类更快或更准确地执行任务,那么实时审查其决策基本上是不可能的。人类也很难对一个大部分时间都正常工作的系统保持警惕。我怀疑这就是为什么记者们不断发布虚构的大语言模型引文,也是为什么 Uber 自动驾驶项目前负责人眼看着他的"完全自动驾驶"特斯拉撞上了墙

接管也是一个挑战。如果一个自动化系统大部分时间都在运行,但偶尔要求人类操作员介入,那么操作员很可能已经疏于练习——并且会手忙脚乱。自动化系统还可以通过处理越来越大的偏差来掩盖故障,直到灾难降临。这将人类操作员推入一个意料之外的状态,在这种状态下他们通常的直觉不再准确。这导致了法航 447 航班的坠毁:飞机的飞行控制系统从"正常"模式转换到"备用 2B 法则":一种飞行员未经训练的情况,同时禁用了自动失速保护。

自动化并不新鲜。然而,前几代自动化技术——动力织布机、计算器、数控铣床——在范围和复杂性上都更加有限。大语言模型被讨论时,人们认为它们将自动化大量人类任务,不仅接管重复性的简单工作,还接管高级别的、适应性的认知工作。这意味着我们必须将自动化的教训推广到以前从未面对过这些挑战的新领域。

软件工程师正在使用大语言模型来替代设计、代码生成、测试和审查;这些技能因不使用而萎缩似乎是不可避免的。当机器学习系统帮助运维软件和响应故障时,人类工程师要顺利接管可能会更加困难。学生们正在使用大语言模型来自动化阅读和写作:这些是理解世界和发展自身思想所需的核心技能。多么可悲:构建一台悄悄剥夺学生智识遗产的成瘾机器。期望翻译人员将部分工作外包给机器学习,意味着这些翻译人员可能会失去进行生动、准确翻译所必需的深层语境。当人们将人际建议和自我调节等情感技能外包给大语言模型时,我担心我们将难以独自解决这些问题。

劳动力冲击

有一些令人恐惧的同人小说预测了机器学习可能如何改变劳动力市场。我在软件工程领域的一些同行认为他们的工作将在两年内消失;另一些人则确信自己将比以往更有价值。即使机器学习并不擅长完成工作,这也不能阻止 CEO 们大量裁员声称这是因为"AI"。我不知道事情会走向何方,但可能的未来空间现在似乎非常广阔,这让我非常恐惧。

你可以设想一个强大的国家和行业工会失业与再培训项目体系,就像瑞典那样。但与缝纫机或联合收割机不同,机器学习系统似乎准备好了在广泛的行业中取代劳动力。问题是,当美国一半的经理、营销人员、平面设计师、音乐家、工程师、建筑师、律师助理、医疗行政人员等所有人在十年内失去工作时,会发生什么。

作为一个没有一丝经济学素养的旁观者,我看到了一个结果的连续谱。在一个极端,机器学习系统继续产生幻觉,无法变得可靠,最终未能兑现具有变革性的、广泛有用的"智能"的承诺。或者它们有效了,但人们受够了并宣布"AI 坏"。也许随着技能退化和泛滥的垃圾内容的债务到期,一些领域的就业反而会增加。在这个世界里,前沿实验室和超大规模企业在上万亿美元的债务融资资本支出上演了一出歪嘴狼,大量机器学习从业者失去工作,违约在金融系统中级联传播,但劳动力市场最终适应了,我们跌跌撞撞地过来了。机器学习被证明是一种普通技术

在另一个极端,OpenAI 兑现了 Sam Altman 2025 年关于博士级智能的声明,而那些用 Claude 编写所有代码的公司以极少的软件工程师取得了惊人的成功。机器学习极大地增强了医生、音乐家、土木工程师、时装设计师、经理、会计师等人的能力,他们短暂地享受了不错的薪水,然后发现对其服务的需求并不像曾经以为的那样有弹性,尤其是当他们的客户失去工作或转向机器学习以削减成本之后。知识工作者被大规模裁员,MBA 们开始在麦当劳打工或为 Lyft 开车,至少在 Waymo 终结人类司机之前是这样。这对每个人都很不方便:MBA 们、那些曾经在麦当劳工作现在要和 MBA 竞争的人,当然还有银行家们,他们原本指望 MBA 们继续还房贷。消费支出的下降在各行业中级联传播。很多人失去了积蓄,甚至失去了住房。希望手艺人能勉强过关。也许杰文斯悖论最终会发挥作用,我们会找到新的职业。

第二种情景的前景让我恐惧。我无法判断它有多大可能性,但按照我的同行们最近几个月的说法,我觉得我不能完全排除它了。这已经让我夜不能寐。

资本集中

大体来说,机器学习让公司将支出从人员转移到与微软等公司的服务合同上。这些合同支付了训练和运行现代机器学习模型所需的惊人数量的硬件、电力、建筑和数据。例如,软件公司正忙于裁掉工程师并在"AI"上花更多的钱。产品经理不用雇佣一个软件工程师来构建某个东西,而是可以每周烧掉 20,000 美元的 Claude 令牌,这反过来又为大量亚马逊芯片买单。

与有基本欲望、偶尔会组织起来要求更好的薪酬上厕所的时间的员工不同,大语言模型非常随和,可以随时被解雇,从不需要上厕所,也不会组建工会。我怀疑,如果公司成功地用机器学习系统取代了大量人员,其效果将是把金钱和权力集中在资本手中。

全民基本收入,真的吗

AI 加速主义者认为潜在的经济冲击只是通往富足之路上的减速带。一旦真正的 AI 到来,它将比我们更好地解决社会的一些或全部主要问题,人类可以享受其劳动的成果。AI 公司积累的巨额利润将通过全民基本收入(UBI)被征税并与所有人共享。

这感觉天真得无可救药。我们家里就有盈利的超级企业,它们的名字是谷歌、亚马逊、Meta 和微软。这些公司拼尽全力逃避纳税(或者,就此而言,逃避支付工人工资)。OpenAI 成立不到十年就决定它不想再当非营利组织了。没有理由相信"AI"公司在通过将其服务插入经济的各个领域而攫取了巨额财富后,会出于好心转身资助全民基本收入。

如果足够多的人失去工作,我们也许能够动员足够的公众热情来支持数万亿美元的新税收。另一方面,美国的收入不平等在过去 40 年里一直在总体上加剧,最高收入者的税前收入份额正在接近 20 世纪初的历史高点,而共和党对累进税政策的反对依然强劲。

下一篇:新工作


版权所有 © 2026 Kyle Kingsbury。同见于 MastodonGithub

changes