Back to Notes

Mar 3, 2026 · telenotes

  • 08:31

    human writes是对的。但是我不认为人类应该负责高质量输入。只需要输入就够了,高不高质量并不重要。

    人类的价值恰恰在于随意地输入,输入的多了,自然而然地就产生了价值。重要的地方不在于每一次输入的严肃性,而是许多内容天然产生的联系和统计内涵。

    从这个角度来说, 对我而言,obsidian更适合作为内容批处理的工具,并不适合做日常记录。

    它太精致了,似乎带来某种仪式感,一开始感觉不错,后面就难以坚持。

    让我坚持记录和输出的是flomo和写推特。

  • 08:33

    看了美国在轰炸伊朗之后五角大楼的新闻发布会,虽然对战争这件事情我抱有负面态度,但感觉官方的新闻发布会就应该这样掷地有声。

    可惜我们的频道都是些叽叽歪歪的软趴趴的成语轰炸🐶🐶🐶

  • 08:33

    到现在,我感觉大模型最重要的功能还是闲聊🤣

  • 08:34

    当有了锤子,人们是控制不住自己的,总会去找钉子。

    这种工具(cowork、manus等),可以帮我们更高效地处理繁琐事务,甚至可以将效率提高100倍。

    但当我们能够高效地处理繁琐事务之后,反倒有可能陷入更多繁琐的事务之中...

    似乎科技进步总是会带来这种问题。1930年,凯恩斯预测,2030年人类只需每周工作15个小时,但他显然低估了人类制造垃圾工作填充剩余时间的能力。😅

    对cowork,我当然相信它的威力。我自己就经常使用cc整理文件夹,处理海量文档。

    我不认为我需要把效率提高100倍。我更没有感觉有了AI辅助摄取海量信息之后,自己能变得更聪明。

  • 08:34

    如果一项工作的处理效率提高了很多之后,这项工作的重要性就会大大降低,然后称为被忽视的工作...

    因为在这件事情上花费时间能获得回报会大大降低

    这就很尴尬,许多事情大家都很擅长之后,就会触及这件事情真的毫无意义的本质。

    然后,社会规则会青睐一个需要更耗费精力的事情

  • 09:28

    我最近特别喜欢GPT的语音输入。另外他们解析复杂文档的准确性也非常高。

  • 15:14

    今天上午开始,我花了不少时间在推文备份这件小事上。

    我原本只是想把自己的 Twitter 备份一下。结果发现之前用的那个搜索工具已经无法正常工作,检索二月份的推文时几乎陷入死循环。这个工具本身也不是我写的,我既没法排查,也没法维护,卡在那里其实挺被动。

    于是我换了思路,打算对已经下载下来的数据做后处理,尤其是清理之前误检索进来的内容,希望通过二次处理提高备份的准确性。想法是对的,但实际操作非常困难。这一轮尝试基本算失败,数据噪音比我预期大得多,处理成本也远超想象。

    查了一圈,最稳妥的方案还是直接用 Twitter 官方 API。问题在于,API 获取不算轻松,而且需要付费。如果只是为了做一次个人备份,成本明显偏高。理性一点看,这种付费探索有点浪费。于是这条路暂时搁置。

    后来我索性尝试官方数据下载。意外的是,下载通道居然恢复正常了。之前一直存在跳转错误,页面反复刷新却无法真正进入下载流程。现在可以正常提交申请,只是还需要等待半天甚至一天。

    新的问题又来了:官方会把所有媒体文件一起打包下载,包括图片和视频。数据量会非常大。我其实更希望得到的是一个以文本为主的干净版本,媒体只保留链接。否则服务器存储压力会很重,加载速度也会受到影响。

    回头看,这本来只是件小事,却花掉了半天时间,性价比不算高。但这类折腾也不是完全无意义。每次踩坑,至少能更清楚地知道哪些路径不值得再走。

  • 20:58

    今天Claude又一次宕机了,据说与伊朗对周边国家的轰炸有关。到了下午,服务恢复了。

    我刚才体验了一下Claude,与它讨论了一下宕机的事情,体验发现聊天非常令人愉快。我接下来应该要重新订阅Claude了。

  • 22:45

    死亡只是一种在时间上的隔离制造的幻觉。

    其实在我生命中的许多人,我已在事实上与他们完成了最后一次见面。这是一种空间上的隔离,可能没有时间那么不可逆,但再次见面也只存在概率意义上的可能性。

    一切皆为幻觉,可能难免缅怀,但也不必过分纠结。

    ---

    “如今,他也先我一步离开了这个奇异的世界。这并不意味着什么。对我们这些相信物理学的物理学家而言,过去、现在与未来之间的区别,不过是一种顽固却终究只是幻觉的区分。” ——爱因斯坦

  • 23:46

    晚上把推文系统梳理了一遍。

    过去我断断续续会做推文备份,用工具把数据下载下来,然后在自己的网站里做了一个解析模块,把这些数据结构化展示。这样在个人站里检索,比在推特里翻时间线清爽得多。

    最近我有个新想法:把过去有价值的推文整理进我的日常更新 notes 体系里。推文本身是碎片,但如果能嵌入到持续更新的文档结构中,它就不再是孤立的时间流,而会变成长期积累的一部分。今天挑了一批有意义的内容迁移过来,顺手更新了一百多个文档。

    另外一块是去年 12 月和今年 1 月做的 AI 绘图相关推文,包括提示词和对应图像实例。当时花了不少精力,但因为工作量太大,没有彻底系统化。今天也把这部分重新整理了一轮。

    这次整理基本都用 Codex 来做。以前不太愿意动手,是因为感觉工程量大、重复劳动多。现在用 AI 编程工具来做这些结构性整理,明显顺畅很多。流程跑通之后,效率非常高,做起来甚至有点愉悦。

    当然也能感觉到问题。状态疲惫时,我给的提示不够精确,模型偶尔会做出一些“离谱发挥”,改起来还是要花时间。但整体来看,它确实帮我解决了不少麻烦的结构问题。

    现在网站的形态已经很接近我设想中的样子。只是每隔一段时间,我对它的期待就会提高一点,所以“接近理想”本身也是动态的。这一天谈不上特别值得纪念,但之前设想的几个核心模块确实更加完善了。

    比如 prompts 模块,我把重要的 AI 绘图提示词都补齐进来了。还有一些可能因为备份遗漏,没有完整迁移。那些不急,后面慢慢补。系统不是一口气建完的,它是在不断回头整理中逐渐长出来的。

#/telegram, 碎碎念