科技

ChatGPT会让人越来越自欺吗复旦教授哲学探讨

复旦大学庆祝建校118周年系列学术报告中,徐英瑾教授从人工智能哲学角度分析了ChatGPT的主要弊端——将“常人”的意见予以全面机械化复制,加剧人类“自欺”现象泛滥。徐英瑾是一名博士生导师,兼任中国知识论专业委员会副秘书长、中国现代外国哲学专业委员会理事等,并主持了多项国家级、省部级项目。他主要从事人工智能哲学、英美分析哲学的研究,认为理解ChatGPT并不困难。ChatGPT是一种大型语言模型,英文全称为“Chat Generative Pre-trained Transformer”,其中“聊天”一词源于早期的“聊天盒”技术。尽管ChatGPT的通顺程度令人赞叹,但其进步是通过大规模数据集和人工语料训练而来,无法真正理解中文诗词内涵。此外,海德格尔哲学角度指出这种训练方式会机械化“常人”的意见。意见常被多数人认可,因此“异类”的观点会被过滤掉,这需要高度警惕。ChatGPT人工智能技术虽优秀,但存在不能真正理解语境和精神内核的问题。要想在人工智能道路上走通,需要结合节俭性算法和哲学思维,突破语境伪装。人工智能未来方向仍有待探索。来源:中国青年报客户端。由于此内容只包含图片,没有文字可供概括,因此无法对其进行简明扼要的表述。