这句话是张朝阳在2025年世界互联网大会乌镇峰会期间接受采访时提出的观点。他并非否定AI技术的价值,而是针对过度依赖AI的弊端、AI内容乱象等问题,提醒人们把握与AI相处的尺度,以下是这一观点的具体依据和深层内涵:
1. **避免过度依赖AI削弱自身核心能力**
张朝阳认为人脑和AI的思维机制有着本质区别,过度依赖AI会阻碍逻辑思维与独立思考能力的形成。他以学习为例,强调必须按照人脑的思考过程研究推导,才能真正掌握知识,脑中储存的知识是深度思考的基础,就像学物理不能只靠AI给的答案,亲手推导公式才是掌握知识的关键。他还举例称,自己看搞笑视频时发现AI对这类内容的总结往往不靠谱,因为幽默感、情感共鸣等人类特有的感知,是AI难以精准模仿的,而这些恰恰需要人类自身去感受和思考。同时他还提到,AI让人人都成了“知道分子”,动动手指就能获取答案,但这也容易让人丧失深度思考的动力,这和麻省理工学院的研究结论相契合——该研究显示使用ChatGPT的组别大脑活动远弱于自行写作组。
2. **抵制AI生成内容带来的“假象世界”**
面对网络上越来越多“以假乱真”的AI生成内容,张朝阳有着明确的抵触态度。他直言,AI适合创作教做菜、教钓鱼这类实用型内容,但像散文这类承载情感的文字,他更愿意读真人创作的,因为AI能模仿文笔,却复刻不出人类的情感温度。更严重的是,AI深度伪造技术还引发了侵犯个人隐私、假冒明星等问题,比如伪造明星直播带货等乱象,而目前甄别这些AI生成的虚假内容,甚至都需要借助AI,这一现象让他深感担忧,也认为在这类涉及情感、隐私的领域,人们需要主动拒绝AI的不当介入。
3. **防止AI降低人类生活品质**
对于“未来AI和机器人会让人类一周只工作一天”的畅想,张朝阳并不认同。他认为一味追求AI带来的效率和便利,可能会让人们陷入懒散的状态,比如天天待在家中,反而影响身体健康。他以马拉松举例,很多人愿意花精力跑四十多公里,正是因为人类对生活的追求不只是“省事”,像烹饪的乐趣、自主完成任务的成就感等,这些能提升生活品质的体验,都可能因过度依赖AI而丧失,所以在这类关乎生活本质体验的场景中,需要适当拒绝AI。
值得注意的是,张朝阳的“拒绝AI”并非反对技术进步。他也认可AI的价值,比如搜狐视频就用AI为《张朝阳的物理课》生成精准字幕、为长视频做智能摘要来优化用户体验,他也承认AI在基础科学的数据模拟等方面能弥补人脑局限。他的核心诉求,是希望人们在AI时代守住人性底线,让AI成为辅助工具,而非替代人类思考和感受生活的存在。

还没有评论,来说两句吧...