物理 这里有一间哲学小屋

7月2日 挂第一个问题
欢迎来到自由基的哲学小屋!
这里可以讨论任何哲学命题,小到人生理想,大到伦理人文,你的每一次思索都可以在这里表达!
但请不要涉政,不要吵架哦~
同时自由基也会在这里定期挂上讨论主题!
本期的主题是:『未来学』
“未来需要提问的能力。” ———— 《连线》杂志主编 Kevin Kelly
帖主先来:
7.2 第一个问题
19世纪初,英国率先发动第一次工业革命,蒸汽机的推广致使大量纺织工人失业。Ned Ludd就是其中一名普通纺织工人。他将自己的失业归咎于机器和技术的发展,并在1811年左右,带领一批失业的纺织工人,冲进工厂砸毁了纺织机等机器。卢德的行为引发了工人阶级对机器的敌视,卢德主义(Luddism)因此得名。
第四次工业革命伴随着AI技术的发展。但同时不得不承认,AI在某些领域的表现远超人类,其性能的增长速率也远远快于任何生物的进化速率。现今,量子计算机又为AI提供了算力支持,不难猜测,随着大模型参数量的逐年增加,神经网络算法的不断扩充,以及算力的不断上升,AI在各方面的能力会随时间成倍增长。终有一天,它们的电子神经会在各方面超过地球上每一个人类。
另一方面,AI对传统社会的冲击将会是极大的。因此,对“AI是否会大面积取代传统职业”或者“AI是否会对人类的生存造成威胁”等担心也如影随至。这种担心算不算卢德主义的现代化?进一步地提问,AI究竟会对传统社会造成怎样的影响?其发展是否是必要的?
- 时间正序
- 时间倒序
- 评论最多
- 1


但是认为AI是离经叛道这个行为本身也是卢德主义,因为这是对发展的恐惧
然而不得不承认,即使现在神经网络算法遇到瓶颈,但光是参考Google,OpenAI的大模型年参数量增长就可以看出AI日后带来的人口筛选是必然且残酷的,且一定会加大人类的差距
参考历史上几次工业革命会发现都是这样的,生产力和阶级的关系,高中历史内容
且ChineseAI(有敏感词只能发English)的语料问题很严重,即使加上DeepSeek的数据蒸馏算法也和EnglishAI有很大差距,AI会不会拉大东大和西大的差距还是个问题
所以人人平等和人类进步,谁放第一位?或者换句话说,我现在被AI取代了,我的问题还是AI的问题?

算,但这是必要的。(好吧有点激进)
卢德煮义本质上就是原先的生产者遇到更加高效的机械后因恐惧饭碗问题所以集体抗议与敌视高级机械的行为(不知道可不可以这么理解)
当一种更加高效的生产工具出现时势必会打击原先生产工具所占据的生态位,即使它更为高效,但总有人不满
就比如AI问题,ai自然是一种几乎适配所有制造业的工具,但如果全面引入,又肯定会导致大量工人下岗,这不可避免
但同时,生产效率不仅是以往的一倍,甚至可以是两倍或三倍
至于传统产业,一定会受到极大的冲击,甚至于被替代
但人类史本就是在不断的更新与提高生产力中进行
至于那些下岗了的工人,我的建议是将他们分配到还未能全面ai化的工厂,在转ai的过渡时期继续提供产能(但是,这非常非常非常反人性,但我自己也没想好)
顺便问下佬如何分辨以及如何评价唯物与唯心两种煮义?

e,AI是根据人类现有数学逻辑编译的吧,既然是这样就无法脱离哥德尔第一和第二不完备性定理以及图灵理论,相对应的就是数学中希尔伯特的希尔伯特问题中的三大理想是不成立的,即公理不具有完备性,一致性和可判定性,简单来讲,数学不可能通过几个符号和公理就直接演算出所有的公理,对于数学,理想,直觉等人类特有的思维过程是必不可少的,同样,AI纵使有无穷大的自主学习能力,也不可能依据自己的底层代码就学会一大堆知识,更不可能产生自我意识,从数学公理理论和严谨逻辑学角度来讲,数学等等理科理论在人类思维面前和一个点在一个坐标轴的位置中一样,无限渺小,著名物理学家彭罗斯就明确说明了,哥德尔证明就代表了强人工智能不可能通过纯计算机产生,如果有个计算机按照规则和公理运行,肯定存在他不能证明的真理,但我们人类可以。回到哲学层面,思维始终是人的本源,认知的本源,人类创作的本源,而数学是人类思维的直接产物之一,也是最重要的间接现实产物之一,因此数学理论体系不可能超越人类思维,而在数学模型体系中构建的AI就不可能产生自主意识。
我认为人类产生AI会产生自主意识和威胁自身生存的想法根本是没有全面且正确地从第三次数学危机中吸取教训(当然这个知识层面的人毕竟少),因此产生了自指,犯下了直觉主义的错误。
综上,「Sequence17」阐述完毕

大致明白你的意思
没错,哥德尔不完备性定理确实强调经验/感性/直觉在认知中的重要性,也在一定程度上表明理性主义/形式体系的固有局限性,甚至连自己本身的无矛盾性都无法证明
但你没法证明经验/感性/直觉无法被形式化。Kolmogorov-Arnold定理告诉我们再复杂的函数都可以用有限个初等函数来近似,这也是神经网络算法的基本原理。所以换句话说,你怎么证明上面那些智能就不能被表示成某个巨大的函数?
哥德尔/彭罗斯对哥德尔不完备性定理的叙述是哲学解释而非证明,就比如说AI领域创始人之一Minsky《心智社会》就认为经验/感性/直觉也是有限的物理过程呀。
有些哲学家也认为AI只是在模拟人类行为/情感而非理解,就好比提出“中文房间”的Searle或者认为不应该把AI过度拟人的Dannett,但是反过来想,你又怎么知道你的大脑是去理解而非模拟?


这么说吧,去看一眼网上那些问“为什么要给一个没有血缘关系的人生孩子”和cos科比投篮的农民工。
再不行就去翻弱智吧言论,比如“生鱼片其实是死鱼片”这种。
看完了你就会明白什么叫做顶级的“情绪价值”。因此AI无法取代人类,尤其是某些不像真人的人类,证毕。


算
ai会给我们的未来带来很大引响
但是还是不会全面取代人类
逼近现在的对ai的恐惧
所以人类因该只是运用ai,但是ai不可能使用任何工作
因为ai在情感上不能代替人类
而且ai的不稳定性甚至比人类高
所以因该不会代替人类
只会成为辅助人类的工具

其实人按脚本行事低,但是这个脚本太复杂,以至于我们多半是无法理解的
(你不会想用虚拟计算机模拟本机吧(?))
先天的非条件反射是搭建好的基础神经网络提供的功能,后天所有习得的感情也好、习惯也罢,都神经系统搭建新的神经回路
这个“搭建”行为需要外部的刺激,比如依赖神经递质和细胞因子的奖励机制和基因表达等等
至于你说的那个“中文房间”
从AI的运行逻辑来看是这样的,但别忘了人类是拥有比AI(计算机)复杂得多的输入设备(感受器)的,我们可以直接建立语言与感官(注意不是现实)之间的、复杂的对应关系而非要素不足的数据流(比如AI知道凳子的样子,和能“坐”但功能,但它暂时还不知道什么是“坐”,这一认知要等加装了AI的人形机器人真正坐下来(感受到压力与支持力,膝部弯曲度,重心位置、重力方向等复杂的数据全部录入之后它才能理解“坐”)
至于我们是否也是这样……你猜猜如果从小就教一个小朋友“狗狗是一种在水中游泳,用腮过滤溶解氧呼吸的脊椎动物”,ta长大了会管鱼叫什么?
还有就是Ai的录入逻辑与我们暂时还不一样,端口太简单太贫瘠造成的