笔记系统的反思

这篇文章是我对最近使用过的笔记系统和自己是如何使用这些笔记系统的反思.

在我接触"Building a Second Brain"的概念之前, 我使用了一年多notion. 但是经历了这段时间后, 我发现notion对我来说最有用的功能就是用看板管理todo list. 各种花哨的视图功能对我来说并没有什么用. 于是自从我的第一篇博客写了之后. 在最近的几个月以来, 我尝试了各种各样的笔记系统. 从最开始的emacs org mode到obsidian再到heptabse. 始终没有找到一个让我完全满意的笔记系统. heptabse是最接近的一个. 每一款软件都有自己的优势和缺点. 或许是我没完全理清自己的需求. 再好的笔记系统也依赖于用户的使用方式.

首先需要立足出发点, 回归到为什么要使用笔记系统. 这里不能泛泛而谈, 不能说就是为了达到最终的目的, 不够具体化就不能够直接指导行动. 我的答案如下:

  1. 为了让自己的大脑思路更清晰
  2. 为了能让自己更有创造力
  3. 为了收集能够完成对应的目标的信息

大脑适合做思考而不擅长存储. 而笔记引擎通过文字化存储的方式, 再加上一些特性. 比如obsidian中的双向链接, node graph view. Heptabse中的白板模式. 都是服务于这个目的. 通过文字记录找到新旧知识之间的联系的关系, 从而让用户更有创造力

然而这些特性反而会让用户在零碎的事情上迷失. 比如在不同笔记之间强行制造联系, 从而让为了让笔记显得更加花哨. 随之而来的其实是笔记系统变得更像是一个收集箱而不是生产力工具. 就像盲目阅读不会让人有任何改变一样. 要让笔记系统充分发挥"Digital Brain"的作用, 需要有对应的使用方法. 在说明使用方法之前, 我这里想在详细说明一下我个人使用感受下不同笔记系统的优缺点.

Emacs Org Mode

优点: 首先是emacs能开evil mode让pc端编辑更加丝滑. org capture, org journal很好用. 如果一直开着emacs的话, 无缝记录的感觉很舒服. org mode本身语法设置也没话说, 非常优雅. org roam就算了, org roam强调记录然而记录缺少了反思也没有任何意义. roam系列在反思上没有很好的解决方案.

缺点: 手机端编辑体验很差. 我目前是安卓手机orgzly说实话能用但是让人没有更改编辑的欲望. 其实这一点就足够让我放弃emacs org mode了. 毕竟不是一直在电脑前. 大部分闪念想法都是手机上记录的.

Obsidian

优点: 可定制化, 插件多, 可以自己管理数据. 支持vim模式. 支持看板, 手机端编辑体验不错.

缺点: graph view. graph view其实大部分时间都是摆设. 而且随着笔记越来越多, 打开速度反而越来越慢. 新的链接反而不好发现.

Heptabase

优点: 白板模式, 应用进入就是日记. 注重体验和信息压缩.

缺点: 数据在云端. 主题选择少. 收费.

Notion

优点: 功能多样, ui很舒服.

缺点: 功能多样, 不支持vim编辑, 数据在云端. 自从notion ai推出之后, 体验反而不如之前. 个人认为是反向升级.

回到使用方法这里. 我最开始借鉴了The PARA MethodHow to Take Smart Notes. 在obsidina和heptabse里面, 每一个页面都是一张最小颗粒度的卡片, 然后每个卡片有对应的文件夹比如inbox, todo, archives, 每个卡片在不同的文件夹之间流动. 这看起来没什么问题. 但是如果你记录多了就会发现, 笔记系统会变成个人wiki. 又变成了信息点的收集. 所以这一点heptabse做的很好. 通过白板做知识拆解, 只保留最关键的信息. 但是颗粒度不细的话, 太长的卡片又往往不会让人想要阅读下去.

ok, 要让笔记系统完全发挥作用, 最大化生产力工具的效果, 就要有对应的约束. 第一个约束是日记比笔记更加重要. 这里说的笔记就是卡片. 参考The Bullet Journal Method我觉得日记应该记录以下几个内容.

2024-11-26

# 上午回顾
* 读了10页书, 但是没睡醒状态不太好

# 下午回顾
* 使用llm写完了一个记录体重的web demo , 还没有完成测试.

# 今日待办

- [x] 完成10页书的阅读
- [] 完成体重web demo的开发与测试

# 如何改进

* 了解如何提供睡眠质量
* 了解如何更好的使用llm

# 使用卡片

* [[睡眠]]
* [[llm]]

日记最核心的是记录行为改变的过程. 不需要每件事情都记录. 选一两件最重要的事情追踪, 反思不足之处, 写下来如何改进, 再丰富卡片. 这样做的好处是卡片里的内容都是经过你实践至少是观察过的.

第二个约束是总结比记录更重要. 比方说你读了一本书, 那么一本800页的书, 你总是要提取出关键的引用. 最后在一张卡片上有你全部提取的引用. 最后还是需要总结. 比较好的总结方式就是写书评或者博客. 之后把这张卡片上的内容替换成你的书评. 并且只保留和书评有关的引用.

第三个约束是不随意开新的卡片. 比如你今天看到了一个感觉很不错的公众号, 里面有些内容. 觉得很新奇. 于是开了一张新的卡片复制了原文内容并且粘贴进去. 然而在这之后你几乎不会再去打开这张卡片. 这张卡片就变成僵尸卡片, 一直在吃灰. 并且可能得过了很久才会和别的笔记产生双向链接. 这种时候把内容放到日记里更加合适.

目前来看, 在pc端上(obsidian + emacs + syncthing)是最符合我目前需求的. 手机端上obsidian体验也不错. 需要用一段时间再回来看.

消消乐学习法

前言

一直以来都想写一篇在适合LLM时代下学习范式的文章. 但是总感觉缺了点什么. 直到今天读到How to learn things by yourself受到启发. 感觉瞬间框架完整了, 因此趁灵感还在的时候赶紧记录一下.

正文

如果把学习定义为收集所需要的信息的话, 我认为学习包含两个"消除". 第一个消除是"消除边界不确定性"也就是具体的科目. 第一个消除是"消除信息不确定性". 信息也收集完整了. 所以才叫消消乐学习法. 先来看核心提示词(prompt).

# LLM prompt (From "How to learn things by yourself")

* "Tell me the main topics of X".
* "Subdivide X into as many topics as possible".
* "For everything i say here, make me a list of topics i have to learn with [ ] on each one, 
be as specific as possible"

# LLM提示词 (来自《如何自学》)

* "告诉我X的主要主题"。
* "将X细分为尽可能多的主题"。
* "对于我在这里说的每件事,给我列出我需要学习的主题列表,每个主题后面加上[ ],尽可能具体"

要使用"消消乐学习法", 你需要

  1. 一个电子笔记本 (笔记软件, 纸质本等)
  2. 能够使用LLM的环境(Claude, GPT等)

步骤

Input: 想要了解的主题或领域X

Output: 在X的范围内, 已经细化后可以执行的信息点

Core: 使用下面的提示词

# 消消乐学习法Prompt

##  LLM prompt 

* For everything i say here, make me a list of topics i have to learn with [ ] on each one, be as specific as possible. For each question I ask, please provide a raw mind map in text format.
* Tell me the main topics of X.
* Subdivide X into as many topics as possible.
* For each topic enclosed in brackets [ ], provide a comprehensive and detailed explanation of the underlying knowledge points. Additionally, create three levels of exercises for each knowledge point—beginner, intermediate, and advanced—that are practical and actionable. 
* For each exercise and knowledge point you mentioned above, please include external references along with their corresponding links to help me gain a deeper understanding.
* For each knowledge point you mentioned, establish connections between related concepts and include external exercises to reinforce understanding.

##  LLM提示词 

* 对于我在这里说的每件事,给我列出我需要学习的主题列表,每个主题后面加上[ ],尽可能具体。对于我提出的每个问题,请以文本格式提供原始的思维导图。
* 告诉我X的主要主题。
* 将X细分为尽可能多的主题。
* 对于每一个用[ ]括起来的主题,请提供全面且详细的知识点解释。此外,为每个知识点创建三个级别的练习——初级、中级和高级,要求练习具有实用性且可操作。
* 对于你上面提到的每个练习和知识点,请附上外部参考资料及其链接,以帮助我更深入地理解。
* 对于你提到的每个知识点,请建立相关概念之间的联系,并提供额外练习以加深理解。
  1. 笔记本上新展开一个空白页
  2. 在LLM上新建一个对话
  3. 按照上面的提示词依次输入
  4. 将每次输出复制回笔记本空白页
  5. 在LLM对话框中输入"继续", 直到LLM遍历主题X
  6. 空白页变成了Output
  7. 对应着LLM给出的大纲, 完成练习并对有[ ]的主题打勾

案例

由于对话内容较长, 仅展示部分最终输出内容.

使用消消乐学习法读书

Input: X=道德经, LLM=GPT-4o
Output: 
为了帮助你更系统地理解《道德经》中的核心思想,并将各知识点串联起来,我将进一步深入探讨每个知识点之间的相互联系,并提供更高级的练习以帮助你加深理解。这将包括:

1. **概念之间的关联图**
2. **高级练习:整合性与批判性思考**

---

### 一、道的定义、道与德的关系、无为而无不为的综合理解

#### 概念之间的联系图(文本格式)

道的定义
├── 道:无形无象的宇宙本源
│   ├── 是一切事物的起点和本质
│   ├── 超越语言与思维的限制
│   └── 无为而无不为(自然而然)
├── 德:道的具体表现
│   ├── 个人的道德修养与行为规范
│   ├── 道生德,德化人
│   ├── 以德治国,德行修身
│   └── 无为则德显
├── 无为而无不为
│   ├── 非消极不作为,而是顺应自然
│   ├── 个人修行与社会治理中的应用
│   └── 柔弱胜刚强,以柔克刚

#### 综合理解:
- **道是宇宙的本质法则**,一切事物由“道”而生,而“德”是道在人世间的表现形式。无为则体现了对道的顺应,德则是“道”在日常行为中的实践。
- **道生德**:道是无形的,而德是可见的行为。德是道的延伸,通过“无为”来保持德行,最终达到和谐与平衡。
- **无为而无不为**是对道的终极理解——顺应自然,不刻意干涉,反而能够更好地达成目标。这一原则既适用于个人修身,也适用于社会治理。

---

### 二、综合练习

#### 1. 概念联系练习
**初级练习**:
- **关联性描述**:用 200 字解释“道、德、无为”三者的关系,并举例说明如何在日常生活中同时实践这三个概念。
- **思维扩展**:列举三个现代管理场景,说明如何通过“无为”而达成管理目标,并保持团队的“德行”。

**中级练习**:
- **案例分析**:
  - 找一个企业或社会组织的成功案例,分析其管理方式如何体现“无为而无不为”的理念,并如何通过“德”来维持组织的长远发展。
  - 搜索相关资料,阅读《道德经》第57章“以正治国,以奇用兵,以无事取天下”,并讨论它在现代社会管理中的应用。

**高级练习**:
- **哲学论文**:
  - 选择“道与德的关系”作为主题,写一篇 1500 字的论文,讨论如何在个人成长与社会治理中实现道与德的平衡。引用至少三个哲学家(如黑格尔、康德、庄子)的观点。
- **跨文化对比**:
  - 对比道家的“无为”与西方管理学中的“授权领导”模式。探讨两者的异同,并结合实际管理经验撰写一份 1000 字的分析报告。

---

#### 2. 深度批判性思考练习

**初级练习**:
- **情境模拟**:
  - 设想你是一名教师,如何在班级管理中实践“无为而治”?设计一周的教学计划,减少干预,让学生自我探索学习。
  
**中级练习**:
- **社会实验**:
  - 在你所在的社区组织一次关于“无为而治”的讨论会,邀请参与者分享他们在生活中减少干涉、顺应自然的经验。撰写一篇总结报告,分析“无为”理念在日常生活中的适用性。

**高级练习**:
- **跨领域应用**:
  - 探讨“道、德、无为”在心理治疗中的应用。设计一个心理疗愈方案,帮助焦虑症患者通过减少过度控制来改善症状,并记录效果。
- **多学科整合**:
  - 结合道家哲学与量子物理学的“不确定性原理”,撰写一篇 2000 字的学术论文,探讨“无为”与“无确定性”之间的关联。

---

#### 3. 创意类练习

**初级练习**:
- **绘画与思维导图**:
  - 用绘画或思维导图的形式,直观表达“道、德、无为”的关系。通过视觉化的方式理解老子的哲学思想。

**中级练习**:
- **文学创作**:
  - 写一篇短篇小说,描述一个人如何通过“无为而治”改变了他的生活或工作环境。故事应突出道家的智慧在现实生活中的应用。

**高级练习**:
- **社会问题分析**:
  - 选择一个当前的社会问题(如环境保护、社会公平、心理健康),并提出基于“道、德、无为”的解决方案。写一篇 3000 字的研究报告,讨论这些理念如何在现代社会中实现可持续的变化。

---

### 三、如何进一步查找与学习资源
为了深入理解上述内容,你可以:
1. 阅读《道德经》不同版本的注释(如王弼注本、河上公注本)。
2. 搜索以下关键词:
   - "Dao and De relationship in Daoism"
   - "Non-action (Wu Wei) in modern management"
   - "Application of Daoist philosophy in psychotherapy"
3. 使用学术数据库进行查找:
   - JSTOR、Google Scholar、中国知网
   - 课程平台如 Coursera、EdX 等

如果你需要更详细的探讨或具体的研究资源,也可以提供更多细节,我会帮助你更深入地挖掘。希望这些练习能够帮助你在理解和实践《道德经》智慧的道路上更进一步!

使用消消乐学习法研究

Input: X=强化学习, LLM=GPT-4o
Output: 

以下将针对**强化学习基础**中的每个知识点,建立相关概念之间的联系,并提供额外的练习题,以帮助你加深理解这些主题。

### 强化学习基础概念之间的联系

强化学习(Reinforcement Learning, RL)由多个核心概念组成,这些概念相互关联,共同构成强化学习的整体框架。以下是各个概念的关联与理解:

强化学习
├── 智能体(Agent)
│   └── 在环境中观察状态(State)并执行动作(Action)
├── 环境(Environment)
│   └── 接收智能体的动作(Action),并反馈新的状态(State)和奖励(Reward)
├── 状态(State)
│   ├── 由环境定义,用于描述环境的当前情况
│   └── 决定智能体应该采取的动作
├── 动作(Action)
│   ├── 智能体根据策略(Policy)选择的行为
│   └── 动作的选择影响环境并导致新的状态和奖励
├── 奖励(Reward)
│   ├── 环境对智能体动作的即时反馈
│   └── 智能体通过奖励调整策略以最大化未来的累积回报(Return)
├── 策略(Policy)
│   ├── 决定智能体在每个状态下采取的动作
│   └── 可以是确定性策略或随机策略
└── 回报(Return)和折扣因子(Discount Factor)
    ├── 累积奖励的总和,用于衡量智能体的长期收益
    └── 折扣因子用于平衡短期与长期奖励的重要性

### 概念之间的联系解释

1. **智能体与环境**:智能体(Agent)在环境(Environment)中执行动作(Action)。环境基于智能体的动作,反馈一个新的状态(State)和奖励(Reward)。智能体通过不断与环境交互来优化其策略(Policy)。

2. **状态与动作**:在每个时刻,智能体基于当前的状态(State)选择一个动作(Action),并根据策略(Policy)作出决策。动作的执行会导致环境状态的变化,并可能产生即时奖励。

3. **奖励与策略**:奖励(Reward)是智能体学习的基础,通过调整策略以最大化累积奖励(Return)。智能体试图找到一条最优策略,使得在所有可能的状态下,累积回报最大化。

4. **回报与折扣因子**:智能体关注的并不仅仅是立即的奖励,而是长期的累积回报。折扣因子(Discount Factor)用于平衡当前奖励与未来奖励的相对重要性,折扣因子越低,智能体越关注近期的奖励。

---

### 额外练习题(用于加深理解)

#### **额外练习 1:理解核心概念之间的联系**

- **初级**:
  1. 在强化学习中,为什么折扣因子会影响智能体对未来奖励的重视程度?
  2. 举例说明在现实生活中,智能体、环境、状态、动作和奖励的关系。
  3. 假设一个智能体在迷宫中导航,请描述智能体、环境、状态、动作和奖励的定义。

- **中级**:
  1. 解释为什么在强化学习中,策略(Policy)是决定智能体行为的核心。
  2. 修改 OpenAI Gym 中的“FrozenLake”环境,调整奖励机制,使得智能体更容易学习到最优路径。
  3. 设计一个实验,比较不同折扣因子(如 0.5 和 0.9)对 Q-learning 算法的影响。

- **高级**:
  1. 使用深度强化学习(Deep Q Network, DQN)训练智能体解决“CartPole”问题,并分析不同折扣因子对学习效率的影响。
  2. 基于一个实际应用场景(如自动驾驶),设计状态、动作和奖励函数,并训练一个智能体优化行驶路线。
  3. 设计一个复杂的多智能体环境,模拟多个代理在有限资源下的竞争,并分析不同策略对整体系统性能的影响。

#### **额外练习 2:实际操作与应用**

- **初级**:
  1. 使用 Python 和 NumPy 创建一个简单的“多臂老虎机”模拟器。
  2. 在 OpenAI Gym 环境中,使用 Q-learning 算法训练智能体解决“Taxi-v3”问题。
  3. 解释在“CartPole”环境中,如何调整奖励函数以增加智能体平衡杆的时间。

- **中级**:
  1. 编写一个基于 SARSA 算法的智能体,并在“FrozenLake”环境中进行训练。
  2. 实现一个基于 Monte Carlo 方法的智能体解决“Blackjack”问题。
  3. 设计一个新的环境(如虚拟仓库管理系统),定义状态、动作和奖励机制,并训练强化学习智能体进行库存优化。

- **高级**:
  1. 使用 TensorFlow 或 PyTorch 实现一个深度 Q 网络(DQN),解决“LunarLander”环境问题。
  2. 基于 Actor-Critic 方法,设计一个强化学习智能体用于股票市场交易决策。
  3. 构建一个多智能体强化学习环境,模拟机器人团队的协作任务(如灾害救援场景)。

---

### 额外参考资料

以下是进一步深入学习的外部参考资源:

- [OpenAI Gym 官方文档](https://gym.openai.com/docs/)
- [Reinforcement Learning: An Introduction by Sutton & Barto](http://incompleteideas.net/book/RLbook2020.pdf)
- [深度强化学习教程(Udemy)](https://www.udemy.com/course/deep-reinforcement-learning/)
- [DeepMind's Research on Reinforcement Learning](https://deepmind.com/research/publications)
- [Towards Data Science: Reinforcement Learning 101](https://towardsdatascience.com/reinforcement-learning-101-e24b50e1d292)

---

通过这些练习和参考资料,你将能够更好地理解强化学习的各个概念,以及如何在实际应用中实现强化学习算法。如果有任何疑问或需要进一步深入学习某个主题,请随时告诉我!


为什么AI永远只会是工具

假设AI拥有了意识

意识指的是像人类一样的意识

意味着人类意识可以通过某种符号(symbol)系统表示出来

意味着意识是符号系统复杂度的产物

意味着对于AI来说语言符号"猫"指代是真的猫

而人类有两个世界,符号世界与真实世界

符号世界是为了达成共识和生存所构建的

真实世界是脱离符号系统的

两者相辅相成,符号系统的繁荣促进真实世界的繁荣

符号世界也可以与真实世界脱离,所以谎言会存在

符号会催生出更多的符号,所以婴儿在经过一个年龄结点会快速完成对符号的积累,也就是学习母语的过程

而当小孩在创造出或来到符号世界之前

是否有意识呢?

如果没有意识,意味着拥有符号世界等价于拥有意识

如果有意识,意味着拥有符号世界与拥有意识无关

分歧也在这里,AI是否会有意识取决于你从哪个角度观察

在没有符号世界之前的婴儿,一切都是一元的(non-dualistic)

符号世界创造了二元(dualistic)

随着符号世界的繁荣 人的意识也逐渐体验不到一元

然而即使随着年龄的成长 一元的世界始终存在

所以人能通过类似冥想等的方式重新体验一元的世界

这种状态称为"般若‘’(enlightment)

也被称为‘’空‘’(koan)

然而任何符号系统都是在分割 所以这种状态无法用任何符号捕捉

人类的意识始终同时包含了一元和二元的世界

从这个角度来看

所以假如AI拥有意识

意味着AI也能够冥想

意味着AI也能达到"空"

然而这种状态是脱离符号系统的

因此AI永远也无法拥有人类意识

因此AI永远只会是工具