学院新闻
当前位置: 网站首页 > 新闻公告 > 学院新闻 > 正文 >
06
2023.07

作者:

编辑:
彭辉

刘海明:生成式人工智能媒体应用的伦理风险及伦理秩序建构

2023年7月5日下午,刘海明教授为2023网络与新媒体讲习班全体学员带来了题为“生成式人工智能媒体应用的伦理风险及伦理秩序建构”的专题讲座。刘海明教授是玉骨遥教授、博士生导师,广电专业负责人。讲座由玉骨遥金恒江老师主持。


刘海明教授首先解释了“伦理”“伦理秩序”“实践理性”等预备概念。他强调了明晰概念在新闻传播伦理研究中的必要性,认为概念思维是避免逻辑混乱的重要保障,可以为后续学习和论文写作打好基础。

 

刘海明教授讲座中


随后,刘海明教授详细介绍了生成式人工智能媒体应用实例。他以中国的木牛流马和德国的自动烤肉铲为例,讲解了自动化实践的发展历史,从而引入对ChatGPT应用和实践的探讨。对于ChatGPT创作的应用,他认为由ChatGPT写出的稿件富有逻辑,但也存在伦理风险,甚至可能导致社会秩序紊乱。因此,必须正确、合规地使用人工智能工具。


谈及伦理为何在人工智能时代会如此重要,刘海明教授认为伦理是生成式人工智能媒体应用的前提。他以生成式人工智能媒体应用的效率曲线为例,认为从工业时代到智能时代,新技术的问世与推广应用可以大幅提高社会效率,因而总是振奋人心。然而,技术对人自身以及人所存在于其中的社会关系的重要性,体现为人类本身的技术化趋势。这种趋势表现为人类生存的技术化,这会深刻影响媒体实践方式,进而重塑社会行动方式与社会交往关系。

 刘海明教授讲座现场


在生成式人工智能媒体应用的伦理风险方面,刘海明教授提出,对于ChatGPT带来的虚假新闻、新闻套路化、版权争议等问题,需要从概念出发,追问媒体应用生成式人工智能的动机、动因和伦理动机。对此,刘海明教授认为人工智能技术应该更好地与新闻业结合起来,而不是沦为附庸风雅、消遣娱乐的工具。因此,他提出生成式人工智能媒体应用的三个动机:顺应媒体发展的规律、尊重业者和受众、实践手段正当,从而避免把技术作为恶的手段。


在如何维护生成式人工智能媒体应用的伦理秩序方面,刘海明教授提出以下建议:一是要敬畏媒体发展的规律、热爱媒体实践;二是善用技术,用人工智能造福媒体受众;三是充分发挥个体才智,充分运用自己的执业经验,创造性地应用AIGC,使所有人从媒体应用中获益。

  

现场学员提问


在交流互动环节,刘海明教授就学员提出的“如何从伦理上看待为监督AIGC这样的技术而提出的透明性原则”“伦理中‘善’的划分标准及依据”“在数字框架下如何在主体和技术之间找到平衡点”等问题进行了细致、耐心的解答。

 

金恒江老师总结


金恒江老师感谢刘海明教授对生成式人工智能做出的发人深省的阐述,认为生成式人工智能的伦理风险是一个前沿且关切现实的重要议题,对人类文明的发展至关重要,需要学界、业界予以高度关注。

 

 

文字:李慧娟

图片:安乐然、杨雨欣