“人工智能”概念自1956年夏天被第一次提出以来,已经经过了60多年的历程。与前几次的热潮相比,AlphaGo引爆的第三次人工智能浪潮跨越了技术商业化的临界点。截止目前,人工智能已在自动驾驶、医疗、金融、法律、智能家居等诸多领域成功实践,其与文化产业的拥抱亦在不断深化,在文化创作,以及分发、管理、营销方面具有应用。目前,世界各国政府与学界、产业界已经开始关注人工智能在文化产业的应用以及相关法律政策问题,我们对此进行探讨。
一、人工智能在文化产业领域应用广泛
根据腾讯研究院的统计,从2012年开始,人工智能领域的投资金额呈现出了非常陡峭的增长趋势,转折点就是深度学习技术的突破,以及硬件算力与大数据的飞速发展。“文化产业+人工智能”是人工智能技术向文化领域深度渗透和应用的过程,同时也是提升文化科技附加值,提高文化产品数字化、智能化的方向。
在传媒与互联网领域,知识的数据化程度越来越高,人工智能在网络新闻、文学等图文内容的创作与编辑方面广泛应用。在内容创作方面,一些主流媒体如腾讯新闻的写稿机器人“dreamwriter”、 “微软小冰”及中国地震台网机器人等都先后将AI应用于新闻报道。在内容编辑方面,人工智能可以根据主题主动从互联网采集所需内容,还能自动进行鉴定审核,剔除不可信内容,选择合适的条目,进行自动逻辑化编序和个性化组织。未来,人工智能将打破传统媒体的桎梏,实现完全智能化内容创作、跨媒体语义理解和多媒体内容精细编辑。
在影视、音乐与艺术领域,人工智能在剪辑、灯光、后期等很多流程上可以大大提高人类效率,很多科技公司均在探索利用AI创作出更加打动人心的艺术作品。在视频领域,迪斯尼和皮克斯共同研发的AI深度学习模型,通过研究《海底总动员2》中的大量处理瑕疵的案例,可以学会自动将因光线过少引起的瑕疵纠正成光线饱满而自然的图像。在音乐领域,人工智能已经能够参与到题材选择、初步生成、编曲、声音合成等各种环节,如Amper music和科技巨头如索尼旗下的Flow machine已分别推出音乐作品。在艺术创作领域,2017年4月27日,阿里巴巴在UCAN大会上正式推出“鲁班”人工智能系统,一秒可以生成8000张淘宝海报。当然,目前人工智能尚不具备人类特有的情感、思维,只是限于辅助人类创作和替代完成部分低质量的重复工作。
在游戏领域,人工智能的应用主要分为两个方面:一方面是将人工智能用于游戏内容的开发,比如制作游戏的各种素材如模型、贴图、声音、NPC等。例如,英伟达正基于机器学习与神经网络技术研发多种游戏开发工具,其功能包括利用照片自动生成材质、将低像素图片还原到较高清晰度等;美国佐治亚理工大学的研究人员通过让AI观看游戏视频,教它如何重新制作游戏引擎。人工智能与游戏的结合不仅可以帮助专业人员开发出用户体验更佳的游戏,另一方面,人工智能可以作为玩家去玩游戏,如腾讯AI lab的“绝艺”战胜了世界棋王柯洁。
另外,技术革新驱动文化产业革命性发展,从报纸到电视再到互联网、移动互联网,至今进入AI时代,文化传播、文化管理与文化营销均深受影响。
从传播模式上看,人工智能通过大数据分析可以精准地向用户推荐文化产品,适时调整传播内容和策略,提升用户服务体验。借助用户行为大数据实时分析,人工智能将对用户进行精准的和实时的画像,并在此基础上理解用户的信息需求,进而准确推送所需知识和信息内容,实现内容精准发行和阅读服务。诸如今日头条、天天快报、UC等都是算法与新闻相结合,基于用户兴趣模型进行内容推荐的实践产品。除此之外,美国的一些新兴社交媒体内容生产机构就在利用人工智能算法实时监测短视频的传播路径,进而实时调整传播策略以及内容生产策略,形成了从传播监控到内容生产的闭环。
从管理的角度来看,人工智能具备大数据存储能力和强大并行运算能力,通过对大数据的分析,可以提升信息存储能力、提高信息管理的效率和追踪数据之间的相互联系。以博物馆为例,美国克林顿总统博物馆的邮件数量尚在博物馆管理能力之内,而奥巴马总统的博物馆则需要管理10亿封以上的邮件,美国博物馆协会(AAM)认为“人工智能是管理如此大量级文件的唯一可行方法”。另一方面,人工智能还可以提出别有新意的藏品组合。目前挪威国家博物馆正在进行机器学习和深度神经网络试验,将人工智能应用于馆内收藏的管理。
从文化营销上看,人工智能的大数据分析技术可以帮助文化企业更有针对性地进行内容宣传。《魔兽》的精细化营销就是一个充分发挥人工智能作用的例子:2016年,百度和传奇影业有一项推广合作,即用“百度大脑”的用户画像技术将观影人群分类并精准营销,为电影《魔兽》提升了200%的票房。在游戏行业,游戏运营商通过渠道数据的分析,不仅可以筛选出对产品有价值以及有潜力的分发渠道,还可以针对这些渠道增加投放活动数量以及相关奖励内容,优化渠道结构以保障持续稳定的玩家导入,这都是人工智能在文化营销方面的能力。
二、人工智能应用于文化产业面临的法律政策问题
人工智能在众多文化领域的应用无疑是十分有潜力并值得期待的,然而事情总有两面性,随之带来的前沿法律政策值得我们思考。
1、人工智能机器人法律主体资格问题
随着人工智能技术的发展,传统法律及社会规范面临新的挑战。人工智能技术的快速发展,使得机器人拥有越来越强大的智能,机器人与人类的差别逐渐缩小。2017年10月26日,在沙特阿拉伯首都利雅得举行的“未来投资倡议”大会上,“女性”机器人索菲娅被授予沙特公民身份。2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为“电子人”(electronic persons),除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。虽然此项动议已被欧盟委员会否决,但随着技术的发展和人类对自我认识的加深,如何判定人工智能是否具备人类相似的“智能”,是否赋予机器人以虚拟的“法律主体资格”,是需要各个领域的专家进行探讨的复杂问题。
2、人工智能创作物版权保护之困惑
随着人工智能应用领域在影视、音乐创作、文学创作等领域的不断扩展,由此而引发的其创作成果是否应当受到版权法的保护以及其保护路径的探讨。人工智能随着大数据、深度学习的应用以及智能软硬件的不断迭代,其创作能力和创作速度不断提高,例如Jukedeck Make平台用户可以通过设定音乐类型、乐器、节奏等参数在10分钟之内自动生成一段时长在一分多钟的音乐;美联社早在2014年就启用Wordsmith写作机器人进行财经报道;国内新闻媒体例如腾讯、新华社等也启用机器人写稿系统,撰写各类新闻报道;2016年清华大学的语音和语言实验中心(CSLT)在其网站上宣布他们的写诗机器人“薇薇”经过社科院等唐诗专家的评定,通过了“图灵测试”。这些人工智能的创作成果能否得到版权法的保护对文化产业的发展有深远的影响。版权制度的实质是从产权角度对智力创造活动进行激励的制度,通过赋予创造者和传播者以权利,保障其获得相对应的收益,从而为其继续创造提供动力。在可以预见的未来,如果没有对人工智能创作成果给予恰当的保护,可能会损害“创作-保护-激励-再创作”的良性循环,导致版权公有领域的无限扩大,最终损害私权的存在。
3、个人隐私和数据保护问题
人工智能时代,数据的收集、使用等各个环节都面临着风险。在数据收集环节,机器对人们数据的海量收集形成对用户的全面追踪。在数据使用环节,大数据分析经过深入挖掘可以识别特定个人,扩大了暴露隐私的风险。由于大数据具有多维度和全面的特点,它可以从很多看似支离破碎的信息中完全复原一个人或者一个组织的全貌。比如网络视频公司Netflix曾放出上亿条“经过匿名处理的”电影评分数据,仅保留评分和评分时间,但2009年,德州大学的两名研究人员,将匿名数据与公开的IMDB数据做对比,成功将匿名数据与具体用户对应起来。此外,黑客攻击、系统安全漏洞等原因使得个人数据始终暴露在风险中。2016年9月22日,雅虎证实至少5亿用户的账户信息在2014年遭人窃取。2016年12月14日,雅虎再次发布声明,在2013年8月,超过10亿用户的账户信息被盗取。如何在推进文化产业智能化的同时保护个人隐私、数据是一个重要的问题。
4、人工智能加剧信息茧房效应
“信息茧房” 最早由凯斯•桑斯坦教授诠释,“信息传播中公众对于信息的需求是从自身感兴趣的东西和使自己愉悦的领域着手的,久而久之,对于其他信息形成了一道无形的“墙”,会将自身桎梏于蚕茧一般的“茧房”中。时间一长,就形成了一个仅能容纳相同意见的“回音室”,身处封闭茧房中的人们听到的只有自己被放大的回声,其结果必然是作茧自缚,闭目塞听。”当今,以今日头条为代表的新一代资讯类APP,就是以大数据作为基础,通过协同过滤算法来进行受众肖像的刻画,为受众推送符合受众自身偏好的信息。“协同过滤算法”是在个人议程设置主观筛选之后的二次过滤,使本来已经相对单一的信息脉络更加趋于同质化。科技迅猛发展的今天,让我们体会到了前所未有的信息自由,然而发达的科技本应让我们接触到更多更广的信息,反而由于“信息茧房”效应的存在,让很多人潜移默化地接受并蜷缩于逐渐收窄的“茧房”之中。正如麦克卢汉所言“我们塑造了工具,工具反过来又塑造了我们”。
5、人工智能能力尚待进一步优化
随着人工智能技术逐渐深入文化产业,人工智能的算法缺陷逐渐隐现。应用于文化产业的人工智能的算法缺陷主要体现在三个方面:首先,数据是社会现实的反映,歧视性的数据训练出来的AI系统自然会带有歧视的影子,例如,谷歌公司的图片软件曾错将黑人的照片标记为“大猩猩”, Flickr的自动标记系统亦曾错将黑人的照片标记为“猿猴”或者“动物”。类似的问题已经引起诸多关注,批判硅谷正在将人类社会既有的种族歧视、性别歧视等问题带入机器学习的声音逐渐增多。其次,机器还缺乏理解人类细微情感差别的能力,体现在语音识别与图像识别等领域。以最为广泛的语音解析为例,在记录对话时,人工智能可能与人类一样准确,但它无法辨别出讽刺、笑话或理解上百万种其他文化背景。最后,智能算法投入产出比高、覆盖面广、个性化程度高,但风险把控能力相对较低,技术与新闻性、价值观的平衡点依然难以把握。2017年12月31日,在被网信办约谈后今日头条宣布整顿,在智能算法推荐之外加入人工审核。
三、针对“人工智能+文化产业”前沿法律政策问题的建议
1、加强人工智能在文化产业的研究应用
2016年,国务院印发的《“十三五”国家战略性新兴产业发展规划》首次将数字创意产业纳入战略性新兴产业,数字创意产业成为要重点培育的5个产值规模达10万亿元级的新支柱产业之一。 十九大报告更是高度强调文化与科技融合发展,提出要更广泛地借助和依靠科学家技术发展新型文化业态,推动文化产业大发展大繁荣。当前,人工智能已经渗透到影视、音乐、艺术与互联网传媒、游戏等文化生产和文化传播的方方面面。我国应继续推动文化产业与人工智能结合,促进文化产业的进一步开发,形成新的产业格局和产业生态。支持数字文化资源开发关键技术研究与应用,加快文化产品数字化、协同化步伐,加强人工智能在文化创作、传播、管理、营销以及文化领域重要装备、工艺、系统、技术平台应用的相关研究。
2、人工智能尚不具备法律主体资格
至少在当前,人工智能机器人发展处于弱人工智能时代。如果要赋予人工智能的机器人以法律拟制的法律人格,就要求其有意思表示能力,具备独立的权利能力和行为能力。人工智能机器人的外在表现可能为人形,但其只是一个由算法主导的计算机系统,其工作的逻辑主要是通过传感器以及语音识别系统等,将人类的自然语言以及外界的感知转换成为机器语言传达到控制系统,控制系统通过高速计算处理,将信息传达到驱动系统,从而输出语言和特定的指令动作。于人类而言,机器人只是辅助人类、解放人类劳动的工具,而非具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,若将其作为拟制之人以享有法律主体资格,缺乏法理佐证。机器人工作目的为人类设计者所设计,机器人生成的目的行为,与人类有目的、有意识的行为性质完全不同,人工智能尚不具有自我意识,缺乏独立的权利能力和行为能力。因此,在当前技术水平下,缺乏自我意识,尚且受民事主体控制的机器人,不足以取得独立的法律主体地位。
3、予以AI创造物以版权保护
若不给人工智能创作物以版权保护,创作成果的“激励”与“接触”之间的交换平衡被打乱,没有法律保护复制的发生,则创造知识财产的激励也受到破坏。2016年5月,日本颁布的《知识财产推进计划2016》认为有必要对现有的日本知识产权制度进行检讨,以便分析使得人工智能的创作物获得版权保护的可能性。鉴于目前技术发展的局限,人工智能的“智能”尚不足以达到可以独立承担相应的权利义务的程度,建议我国为其设立相应的“管理人”代为行使权利和承担义务。而该“管理人”的选定应遵循“最紧密联系”原则,即该“管理人”应为最方便代为人工智能体行使相关权利的人。以写稿机器人为例,如果其是单位或公司本身设计完成的成果仅供公司使用,那么可以将该法人设定为其“管理人”;在该机器人的所有权发生转移后,其使用者应为其“管理人”,代为行使权利。当然,这样的制度安排需要为人工智能体设定特定的财产账户,用于收取或支付相关费用,同时在其发生侵权责任时可以用于赔偿被侵权人的相关损失。
4、强化人工智能隐私和数据安全保护
为了更好应对个人隐私和数据保护的挑战,各国基本建立起隐私和个人数据保护的法律框架。首先,建议我国加强网络、电讯隐私保护的专门立法。隐私权的保护应以民法保护为基础,同时以专门法律保护为补充,规定特定领域的特定主体隐私保护的原则和办法。其次,为了进一步强化对个人隐私和数据保护,可以引入相应的技术手段。建议我国应当加快数据匿名化利用的法律规范体系,明确匿名化数据的法律概念和认定标准,数据在匿名化后不再具有身份识别性;引入隐私风险评估机制,鼓励企业基于个案在内部实施数据匿名化的风险评估,并基于评估结果,适时调整匿名化战略。
5、公共性媒体降低信息茧房效应
“信息茧房”并不是算法时代独有的产物,选择性接触是“信息茧房”的根源,技术的发展则为“信息茧房”效应的加剧营造了可植根的土壤。对于如何摆脱互联网“信息茧房”的枷锁,桑斯坦认为有必要建立网络世界的“人行道”模式,参考现实环境中的广场、街道、公园这类公共场所和传统报刊、广播、电视等大众媒体的公共领域。建议我国部分媒体应该扮演“公共论坛”的角色,通过向使用者提供“非计划”“不想要”的信息,使人们更多地接触到不同领域、不同阶层、不同利益群体的立场和态度。正如尼葛洛庞帝在其著作《数字化生存》中所言“在极端个性化的‘我的日报’的同时,我们还需要公共性的‘我们的日报’。”通过构建“人行道”模式,来拓宽受众信息视野,掌握社会整体发展和宏观变化,更好地参与到社会生活中去,更有利于维持社会稳定。
6、制度建设和技术发展降低算法危害
目前人工智能,在发展过程中可能由于技术不完善、算法不健全或算法不公开、不透明等原因,开始面临种族歧视、性别歧视等问题,并由此产生了很多负面后果。因此,对于我们来说,也应该提前思考,通过制度建设、技术提高、算法完善和算法公开化、透明化等措施,来避免类似问题的发生。近些年,已有部分高科技企业和国际标准组织对解决人工智能进步所带来的社会与伦理道德问题进行了尝试。例如,2014年,谷歌收购英国人工智能创业公司DeepMind后建立AI伦理委员会;2016年,微软创建了AI伦理委员会“Aether”;英国标准协会(BSI)在2016年发布《机器人和机器人系统的伦理设计和应用指南》;IEEE标准协会于2016年4月推出IEEE全球人工智能和自主性系统伦理问题提案;2017年初,MIT媒体实验室与哈佛大学伯克曼·克莱因互联网与社会研究中心,合作推出AI伦理研究计划。与国际社会如火如荼的制度建设相比,国内对此问题的讨论寥寥无几。建议我国根据需要建立人工智能研发的基本伦理准则,适时成立AI伦理委员会,并对人工智能做出道德风险评估,形成完善的研发技术规范。当然,技术的发展是解决算法技术缺陷的最根本途径。以深度学习为基础的人工智能在海量的数据支撑下进行研发,机器学习仍处在一种黑箱工作模式,即使是开发者也难以把握人工智能的运行过程,未来的研发需要更加透明、更加具有解释性的人工智能学习路径,降低不可预测性和不可解释性。