# 人工智能达特茅斯夏季研究项目提案(1955年8月31日)
达特茅斯学院,美国东北部 新罕布什尔州 汉诺威镇 的一所私立大学,是常春藤联盟成员。该校建于1769年,是美国的9所殖民地学院之一。

提案创始人
J.麦卡锡(J.McCarthy),达特茅斯学院
M.L.明斯基(M.L. Minsky),哈佛大学
N.罗切斯特(N.Rochester),I.B.M公司
C.E.香农(C.E. Shannon),贝尔电话实验室
达特茅斯会议是1956年开的,提出了“人工智能”这个概念,更为后续的研究奠定了基础,指明了方向。


图片来源:https://www.sohu.com/a/281744312_100039183?_f=index_chan30news_131
### 背景:
* 🇺🇸🇷🇺20世纪50年代是冷战初期,美国政府高度重视科学技术在国家安全与经济发展中的作用。
* 20世纪40年代,ENIAC、EDVAC等第一代电子数字计算机的出现,提供了前所未有的计算能力。科学家们开始意识到这些机器不仅能进行数值计算,理论上也能处理符号和逻辑,并开始探索“机器是否能思考”。
* 🫧思想基础:
* 1943 沃伦·麦卡洛克(Warren McCulloch)和沃尔特·皮茨(Walter Pitts)提出人工神经元模型——[Mccoulloch- Pitts(MP)](https://blog.csdn.net/qq_51082388/article/details/148069088)模型,奠定神经科学与AI的理论基础。
> (将人类大脑的神经通路简化成便于计算的数学模型)
> * 人脑神经元的基本结构——神经元“加权输入 → 激活判断 → 输出信号”;他们把大脑中的神经元活动抽象成加权求和 + 阈值判断的数学模型,使“思维”变成了可以计算的形式
>
> 神经元溯源到什么时候?——圣地亚哥·拉蒙·卡哈尔(Santiago Ramón y Cajal)神经细胞之间有间隙,并不是彼此融合的,它们通过接触而非直接连通的方式相互作用。卡哈尔的观点与细胞学说一致,即每个神经细胞都是独立的单元,神经细胞才是脑的基本组成单位。
>
> 【图灵和香农在实现 “简化于便于计算的数学模型” 】
* 艾伦·图灵(Alan Turing)在1950年提出“图灵测试”,首次系统探讨“机器智能”的判定标准。**机器能否思考?**
* 诺伯特·维纳的《控制论》(1948)提出反馈机制、信息流动等概念,为人工智能建模提供理论基础。
这个会议提案想干嘛?——探讨机器智能的实现办法
这次会议上,麦卡锡提出的“人工智能”一词,被大家接受,由此人工智能走向历史舞台。
### 人工智能问题的一些方面:
1、如何对机器编程 以更好利用计算机的能力
2、如何让计算机理解并使用语言
3、如何用神经网络来表达概念

4、如何定义计算效率和复杂性
5、如何实现机器的自我改进
6、如何实现对象的抽象表示 (具体的苹果变成线条的苹果?)
### C.E.香农(C.E. Shannon)的研究提案
**如何用信息理论提高计算系统的可靠性,同时设计一种‘像人类一样逐步学习’的机器,它从简单环境出发,逐渐适应更复杂的世界。**
1.将信息论概念应用于计算机器和脑模型。
> 研究*如何用容易出错的基础元器件*,通过巧妙的冗余设计和信息管理(像在嘈杂电话里听清对方说话一样),可靠地建造出强大的计算机或大脑模型。
> 特别要解决信息在有反馈回路的系统里流动时遇到的新难题,比如延迟导致的失控。
2.匹配环境——自动机的大脑模型方法。
> 要造出能像大脑一样学习、适应环境的机器,不能一步登天。应该先给它设定一个简单明确的小世界(数学化描述环境),让它学会在这个小世界里生存。
> 机器(或动物)智能应通过在简单环境中逐步学习和适应,最终发展出应对复杂问题的能力。**关键在于循序渐进地匹配环境。**
### M.L.明斯基(M. L. Minsky)的研究提案
> 1927-2016
> 美国数学家和计算机科学家 麻省理工学院教授
> 1951 年,明斯基构建了第一个随机连接的神经网络学习机 [SNARC](https://en.wikipedia.org/wiki/Stochastic_Neural_Analog_Reinforcement_Calculator) 。
>1960年,Minsky在论文"Steps toward Artificial Intelligence”中提出了由启发式搜索、模式识别、学习、计划、归纳等部分构成的符号操作,掀起了一场人工智能的革命。
>60s 与John McCarthy 创建了 MIT AI LAB 世界上第一个人工智能实验室
>
>1969 *Perceptrons*《感知器》著作与Seymour Papert合著):指出单层神经网络局限,间接导致第一次AI寒冬(但推动多层网络研究)。
1987 *Society of Mind* 《心智社会》,"心智社会"同时是一个理论
> > 明斯基哲学的核心信条是“心智即大脑所做的事情”。心智社会理论将人类心智以及其他自然演化的认知系统视为一个由个体简单过程(称为“代理” )组成的庞大社会。
> 明斯基是斯坦利·库布里克的电影 《2001:太空漫游》 的顾问
>
---------
**造一台能通过试错学习,抽象出经验,建立脑内模型,并靠“想象”(内部抽象模型先演练)来预测和决定行动的机器。**
> 输入和输出通道,对输入提供不同的输出响应,通过反复训练获得一个范围输入输出功能这样的机器。在特定环境中被赋予成功/失败标准时,机器便可以“追求目标”。
> 但是想要达到高水平的行为,需要“一种抽象感觉材料的方式”——“动作机抽象”集合。
易懂的:
机器用感知装置感受周围(感觉输入)
⬇️
给出相应的动作输出(输出)
⬇️
系统会有一个“成功或失败”的标准告诉它结果好不好。(环境反馈)
⬇️
反复试错,(记住成功或失败的输入输出)
⬇️
“抽象”出规律,这些抽象让它能应对更多相似情况,不需要每次都重新学。
⬇️
机器在其自身内部构建一个放置它的环境的抽象模型。在做动作前,它会先在内部抽象环境模型中 “演练”
【由于现在内部实验了“演练”,外部实验似乎相当聪明,而且这种行为必须被视为“富有想象力”。】
### N.罗切斯特(N. Rochester)的研究提案
> 1919-2001
> IBM的信息研究主管
> 第一台量产科学计算机 IBM 701 及其首个商用版本原型机 IBM 702 的首席架构师。
> 设计 IBM 701 科学计算机与汇编语言:奠定现代编程基础,使机器具备处理复杂任务的能力
> 
> (1956年2月24日,塞缪尔的“跳棋”节目在IBM 701上运行,在电视上向公众展示和播放。这程式因为表明了当年电脑硬件的进步和作者的程式编写技巧而轰动一时。)塞缪尔 创造“机器学习”一词
**我怎样才能制造出能够在问题解决方案中展现独创性的机器?**
* 出发点:机器盲目遵循 编写的程序,没有任何原创性或常识。如果规则写矛盾了,机器就“死机”卡住了,程序员还得怪自己没写好。(规则死板,效率低下)
那么,如果机器有一点点直觉或者以做出合理的猜测,问题可能可以更直接的解决。
* 罗切斯特希望⬇️
机器在遇到规则没覆盖的、或者规则不管用的新问题/难题时,能自己“灵光一闪”,想出一个出乎意料但又不完全瞎搞的点子来解决问题!
**“灵光乍现”就是模拟人类的思维过程**
罗切斯特借鉴 Craik 的“大脑内小型引擎”模型,提出人脑解决问题的方式:
> 1.该环境提供形成某些抽象的数据。
> 2.抽象以及某些内部习惯或驱动提供:
> 2.1 根据将来要实现的期望条件来定义问题,目标
> 2.2 建议的解决问题的措施。
> 2.3 刺激引起大脑引擎回应这种情况。
> 3.然后该引擎运行以预测这种环境状况和拟议的反应将导致什么。
> 4.如果预测对应于目标,则个体继续按照指示行事。
*他希望机器也能建立这种“内部模型”来模拟环境,并在内部“预演”各种解法,这样的行为就是机器的“想象力”。*
**怎么让机器“灵光一闪”?实现路径——引入受控的 *随机性。***
传统计算机严格按照程序执行,一旦程序错误,机器就“死循环”或“报错”。
罗切斯特认为,如果让机器在程序中引入一点点“偶然性”或“非线性选择”(例如尝试不常见的路径);并且让它能判断这种尝试是否带来更好结果,保留有效方案;那么它就能在原始程序失败时,自己跳出规则、寻找新方法;
**如何解释“受控”?**
* 受限的(例如每一万次只尝试一次);
* 目标导向的(尝试之后还要判断效果好不好);
* 对整体系统有益的(不会让机器完全混乱,而是引导探索新的路径)。
### 约翰·麦卡锡(John McCarthy)的研究提案
> 1927-2011 斯坦福大学教授
> 从象棋程序入坑人工智能
> Alpha-beta剪枝算法——在有限的时间内做更深的搜索。【1997 在Alpha-beta剪枝算法加持下,IBM的 deepblue 深蓝 战胜了国际象棋大师 斯帕罗夫】
> 1952年 加入贝尔实验室,作为香农的研究助理。
> 1958 发明 [LISP](https://blog.csdn.net/2501_90407275/article/details/145362325) 编程语言:第一个符号处理语言,成为 AI 研究的标配,至今仍用于符号 AI 与元编程 (处理列表和符号计算,适合用于表达复杂的计算和逻辑推理)
>
> 1960左右,第一次提出计算机分时概念,计算机同时允许上百个用户使用。这一概念成为现代操作系统的基础。【当下的服务器、云计算都是】
>
> 还在计算机语言设计、计算机教育和计算机安全等领域做出了贡献。 。
语言与智力的的关系。
在人工智能系统中,如何通过“语言”实现更高层次的智能行为,如推理、猜测、自我反思等。
设想构造一种类似英语的人工语言,让计算机像人一样使用语言进行复杂行为。
现有的逻辑语言(如程序语言、形式逻辑):
> 只是执行指令或形式化推理。
> 不能有效表达简洁的猜测与思考过程。
> 麦卡锡提出的语言要支持猜测、试错、自我意识与学习能力。
【这是后来“通用人工智能”(AGI)和“符号主义AI”的理论源头之一。】
----
程序逻辑理论机器
----
### 人工智能发展历史
[人工智能简史](https://blog.csdn.net/huang_xiaoen/article/details/147095655)
[ai大事记](https://news.qq.com/rain/a/20240729A0397T00)
| 阶段 | 方法论 | 核心思想 | 典型技术 | 应用领域(代表系统) |
| -------------------------------------------------- | ----------------- | ------------------------ | ------------------------------ | ------------------------------------- |
| **1. 符号主义(Symbolism)**<br>1950s–1980s | **逻辑推理 / 专家系统** | 如果计算机能像人脑一样,接收符号输入,对符号进行操作处理,然后产生符号输出,就可以表现出智能。智能来自明确规则和逻辑推理,知识可由专家编码 | 谓词逻辑、产生式规则、专家系统、语义网络 | 医疗诊断(MYCIN)、装配规划(XCON)、自然语言理解(SHRDLU) |
| **2. 连接主义(Connectionism)<br>初代神经网络**<br>1950s–1990s | **神经网络模拟** | 模仿人脑的工作原理,建立神经元之间的联结模型,以此实现人工神经运算。| 感知机(Perceptron) | 模式识别、简单图像分类(当时能力有限) |
| **3. 统计学习(Statistical ML)**<br>1990s–2010 | **数据驱动统计建模** | 从“概率统计”角度建模,用统计模型做预测 | 贝叶斯网络、SVM、HMM、CRF | 语音识别(Dragon)、文本分类、机器翻译 |
| **4. 深度学习(Deep Learning)**<br>2012–2018 | **多层神经网络 + 特征学习** | 自动学习多层抽象特征,深度神经网络。可以处理图像、语音、文本等几乎所有复杂任务。| 卷积神经网络(CNN)、自然语言处理、Transformer 【2017 transformer (chatgpt 的t 就是这个)】generative pre- trained transformer | 图像识别(ImageNet)、语音助手(Siri)、推荐系统 |
| **5. 生成式智能(LLM范式)**<br>2018–至今 | **大规模预训练 + 微调** | 通用语言理解与生成能力,基于大量语料训练泛化模型 | Transformer、GPT、BERT、T5、Claude | 对话系统(ChatGPT)、代码生成(Copilot)、自动摘要、图文生成 |
1980年代是人工智能研究方向发生重大转折的时期。机器学习和神经网络(联结主义)加速崛起,逐渐取代专家系统(符号主义),成为人工智能的主要研究方向。**人工智能原本由知识驱动的方式,逐渐变成了由数据驱动。**
> 知识驱动(人工智能系统的“智慧”主要来自人类专家提供的规则、逻辑和知识库。)➡️数据驱动(让机器通过大量数据自己学习模式和规律,而不是人写规则。)
* AI历经符号主义(规则驱动)、连接主义(神经网络)到混合模式(大模型+推理)的范式转变,**其核心驱动力来自:**
算力提升:GPU(并行计算引擎,海量简单任务)【GPU可以同时做很多件事情,CPU还只是一次做一件事 线性的】、云计算支撑万亿级参数训练;
数据爆炸:互联网与物联网提供海量训练数据;
算法创新:Transformer架构、强化学习等技术突破边界
----
### 如今的ai
现在的主流ai的核心逻辑:
* 从数据中学习:让机器从海量数据中自动学习输入与输出之间的映射关系或模式。
* 深度学习主导: 以深度神经网络(特别是Transformer架构)为核心模型。
* 依赖强大算力与大数据: GPU/TPU集群和海量数据集是训练现代AI模型的基石。
如今主流AI的运作逻辑是:利用深度神经网络(特别是Transformer),在海量数据和强大算力的支持下,通过优化算法自动调整自身参数,学习输入数据到输出目标之间的复杂映射关系或数据本身的分布规律,最终实现对新数据的预测、生成或决策。
#### 当时的提案与现在的ai对应:
eg:麦卡锡 研究语言与智力的关系 ——👉自然语言模型(如 GPT 系列)成为AI的核心,大语言模型(LLM),自然语言理解与生成。当下大众对ai的使用,用自然语言就可以让ai理解人的表达。
罗彻斯特“构建引擎模拟环境并预测结果”——👉物理引擎与虚拟环境训练(OpenAI Sora视频生成的世界模型属性)
罗彻斯特 机器不只是只遵从规则,而要有自己学习和解决的能力 & “自监督学习”(模型自动从数据本身生成标签。是大语言模型预训练的核心范式,利用海量无标签文本数据学习语言的基本规律和世界知识。)
今天的大模型(如 GPT-4、Claude、Gemini)正是达特茅斯构想通过现代技术完成的具体化身。从知识驱动(符号主义)到数据驱动(联结主义)、从规则到神经网络学习,路径变了,但目标一致:让机器更像人。
---
### 思考:
当时的提案,围绕讨论的是:让机器更像人,有自主性,可以自己学习,可以解决更多的问题。
底色:
人类智能可以被逻辑化、形式化、可计算。“以人类理性为标尺”的技术理想主义?
“任何智能的方面原则上都可以由机器模拟”
* 这一套机器构想 更关注“效率、预测与控制” ,是否会导向通过“对智能的模拟”来更好地控制世界与行为系统?
* 人工智能不是单纯的技术堆叠,还包含科学家们对“人类思维机制”的抽象和重构。不过我们希望AI模仿的是哪种人类智能,似乎大多是西方科学家和大公司决定的。
从这场会议算起,人类发展人工智能近 70 年,发展仍只能是为了什么?
最开始来源于,如果人类能思考,那么能不能建造出“能思考的机器”?
希望ai作为解决复杂问题的工具,增强人类能力等等。
但是现在出现
* “替代人” vs “服务人”
* 数据:AI 依赖海量用户数据,技术背后可能是对隐私、自由的牺牲。
最初,人定义人工智能,随着人工智能的成熟 也在重新定义人。
智能该如何定义?
⬆️⬆️⬆️
以上这些反思 是人文学者的忧郁吗?现实生活中,人类用ai解决了很多问题,甚至降低了很多技术壁垒。
ai可以作为资本主义的终极设想,作为固定资本,人就解放了。