写稿、作诗、写小说、发评论……人工智能渗透到语言领域之后,提供诸多便利,也带来不少现实和伦理挑战。今天上午(12月17日),第二届语言智能与社会发展论坛在北京语言大学召开,多位专家围绕“智能写作的社会影响及其伦理、法律问题”展开讨论,论坛形成《推进智能写作健康发展宣言》,专家们呼吁,今后,智能写作在发展中应当以人为本,永不寻求替代或削弱人类的语言使用能力,始终保持其工具性定位;并应不断提高其自身透明性、可解释性、可预测性,使系统可追溯、可核查、可问责;智能写作要尊重人类语言作品的知识产权,审慎处置“原创”语言作品产权。
智能写作四大领域需求最强
论坛由北京语言大学语言资源高精尖创新中心和中国中文信息学会社会媒体处理专委会联合主办,中心主任李宇明教授作《推进智能写作健康发展》主旨报告。
他指出,智能写作的核心在于自然语言生成技术,对智能写作的需求最强、黏性最高的四个市场,包括内容资讯、金融财经分析、数字营销和行政办公。
智能写作在多个领域已得到大量应用,发挥着不可小觑的影响。他列举出很多例子,在新闻稿件写作领域,有新华社的“快笔小新”、第一财经的“DT稿王”、今日头条的“张小明”等,为新闻从业者提供辅助支撑;在应用文写作,微软、金山、搜狗等推出相关应用,涵盖通知通告、投招标文件、专利软件、规范标准文件等;而在诗词创作中,清华九歌、微软小冰、薇薇写诗等都在尝试机器创作,这些应用涉及到情感计算、语义计算和文本生成等技术,但仍处于模仿阶段;而壹写作、星达等也在应用在尝试小说创作;另外一些返利机器人、蓝色光标等也可以进行智能用户评论。
他也指出,当前智能写作虽然带来便利,也有一些显而易见的特点,比如写作结构化、模式化、同质化,行文无感情色彩,事实与观点错位等,“智能写作技术若不加限制地应用,在工商业、公共管理和文化传承等领域都将产生现实损失及伦理焦虑。”它可能会导致信息过载、干扰个人生活,给文秘、新闻、语言教育等领域的行为生态和人才培养带来挑战,甚至会扰乱社会秩序,改变人类语言生活的形态和秩序。
建议成立“语言智能伦理委员会”
教育部科技司司长雷朝滋司长认为,人工智能给我们带来了新的机遇,也带来了新的风险挑战。目前智能语言特别是智能写作已在学校和社会产生广泛影响,有不少高校、科研院所和企业也开发了相关作品。他指出,和语言相关的智能应用会引起大众的关注和各方面担忧,比如对数据安全和个人隐私保护的疑虑,对知识产权归属的模糊,对冲击就业的警惕,对个性化程度和审美水平的质疑等,“我们致力于开展人工智能技术研究的同时,绝不能忽视社会影响和伦理研究,我们对人工智能可能带来的社会影响和伦理方面的问题也要高度关注。”
他透露,中央全面深化改革委员会第九次会议通过了国家科技伦理委员会组建方案,科技伦理委员会也设人工智能分会,这将有助于理清人工智能的伦理边界,促进人工智能安全可控发展,教育部也正在积极配合开展这方面工作。
本次论坛也呼吁,信息科学界、语言学界、伦理学界、新闻传播界、司法界及社会有关界别及人士,成立“语言智能伦理委员会”,保证语言智能在符合人类伦理的框架内发展,划定语言智能技术应用的道德边界和法律边界。
智能写作系统应可追溯核查问责
论坛吸引了来自北语、北京师范大学、清华大学、中国社科院、哈尔滨工业大学、中国人民大学、字节跳动人工智能实验室等单位的专家学者参会。
本次论坛形成一项重要成果,即《推进智能写作健康发展宣言》。宣言确认了“以积极态度拥抱智能写作”“彰显社会属性和价值”“互联互通深度人机结合”“遵循人类语言生活的公序良俗”“协同发展,彼此补益”等五项原则,并提出多项倡议:
智能写作的总目标应界定为:提升人类社会的信息交换能力和知识传承、共享水平,促进社会的和谐、凝聚与进步,助力人类命运共同体的构建。
智能写作在发展中应当以人为本,以公众福祉为目标,尊重社会伦理和科技伦理,担当起社会责任,保障人类个体和组织的尊严、隐私和权利;永不寻求替代或削弱人类的语言使用能力,始终保持其工具性定位;不断提高其自身透明性、可解释性、可预测性,使系统可追溯、可核查、可问责。
智能写作在运用中应当符合人类价值观,符合社会整体利益。这包括使用规范语言、传播真实信息,不主动改变人类语言生活的形态和秩序;审慎选择落地场景,以减轻人类重复劳动、服务人类生活为目标;不扰乱社会秩序,不干扰个人生活;主动亮明其非人类成员身份和生产者、使用者等数据,并进行显著提示;尊重人类语言作品的知识产权,审慎处置“原创”语言作品产权。
在智能写作的治理中,产业界应实事求是报告智能写作的发展现状,不夸大现有性能,不做缺乏科学依据的展望;文秘、新闻和语言教育等专业应与时俱进,将智能写作的挑战作为转型发展的契机,重视对语言智能技术的学习与应用;理清智能写作开发者、使用者和受用者之间的责任与义务,禁止滥用智能写作危害社会与个人权益。