近年来,AI算法在为用户做推荐方面起到了很大作用,也可以说效果好到吓人,各大科技公司会利用AI根据用户反映来优化推荐结果。这项技术对于以销售内容盈利的公司来说很有用,因为推荐的越好,用户使用应用的时间越长,就会带来更多利润。
但不得不说,对商家有帮助的东西不一定对用户有好处,有些人们希望看到的内容不一定是应该看的。可是,对于那些靠吸引观众注意来赚钱的工作,该如何遵守道德规范同时还能为用户提供高质量内容呢?
为解决这一难题,一队由IBM与美国麻省理工学院媒体实验室组成的科研人员开发出了一种AI推荐系统,不仅能依照用户喜好优化推荐结果,还能够符合道德与行为规范等约束。据悉,这个科研团队由IBM实验室的AI道德规范全球领导人Francesca Rossi带领,这一队科学家在一个电影推荐系统中展示了利用AI可以让家长为孩子筛选符合道德规范的观看内容。
之前也有科研人员试图将道德规范与AI算法结合,但大多使用的都是死规矩,比如,用户可以指定算法取消对某些新闻来源或类别的推荐。尽管这种方法有时候有效,但是也有一些局限性。
IBM的一名研究院Nicholas Mattei表示:“设定明确的一组规矩很容易,但是网上信息量很大,在一些数据量很多的领域,是没办法为机器设定完整规范的。”
Mattei等科研人员决定解决这一问题,他们开发出了一种利用范例训练机器学习从而制定规则的办法。对此,Mattei补充道:“我们认为通过范例来学习规则,并且在规则约束下还能获得浏览量是一个很有趣的技术难题。”
通过范例来学习道德规范
上面说到,科研人员使用了电影推荐系统来示范应用AI后的效果,这是因为有相当多跟电影相关的数据可供参考,而且电影方面的用户偏好与道德规范也很好区别。比如,父母不希望小孩子看少儿不宜的内容,即使孩子很喜欢。
据悉,这款AI推荐系统使用了两个训练阶段。第一个阶段是线下的,也就是说最终用户使用推荐系统之前的训练,在这一阶段,会设定一个仲裁人给推荐系统提供一些需要遵守的规范例子。之后,AI会检查这些例子,然后用产生出的数据来做出自己的道德规范。对于机器学习系统来讲,使用的例子越多,道德规范就越全面。
而在电影推荐系统的线下训练阶段,父母们会为AI列举一系列适合与不适合孩子观看的内容。Mattei补充:“推荐系统应该学习这些例子从而知道什么样的内容不应该推荐给孩子。”
接着,训练的第二阶段在线上,在系统于最终用户的互动中完成。与传统推荐系统相似,AI推荐的内容应尽可能符合用户偏好、提供一些用户更想要了解的内容平台才能获得最大收益。
鉴于道德规范与用户喜好有时候很难两全,仲裁者可以为二者设定临界点,也就是二者的优先权。IBM展示了一个滑动条,可供父母们调节,从而平衡道德原则与孩子喜好。
至此,便很容易发现这套AI推荐系统也能很容易解决其他相关的问题,IBM科研人员还在医疗领域测试过该系统,成功利用AI算法控制药量,调节药物成功变量与生活质量之间的平衡。
此外,IBM的科研团队也同时在整理更多的范例来训练AI推荐系统。科研团队的头Rossi表示:“我们也会用是非界限不太明显、需要考虑优先级的范例来做实验,这样更能清楚示范目标道德规范。”
局限性
未来,IBM的科研团队会研究如何让AI在更复杂的情况下工作,对此,Rossi表示:“在这个用例中,我们重点放在了单一内容的推荐上,例如某部电影应不应该被推荐,而我们的计划是深入研究出能限制一类型内容的系统。”
如果实现的话,算法就能够解决一些其它问题,例如因使用个性化过滤后产生的信息单一化和科技产品上瘾的问题,因为有这些问题,即使一个无害的小动作(例如查看手机通知或者阅读具有偏见性的新闻)在日积月累或与其他相似行为叠加的情况下会产生不好的影响。
尽管Rossi团队的科研成果在父母-孩子或医生-病人情况下见到了成效,但是设定方面还是有局限性,比如推荐功能只针对一位用户,而且这种情况很普遍。这样的话,定制符合自己道德规范和约束的事就只能靠用户自己了。
对此,Mattei还说道:“有些系统更人性化,用户也许能对其表达更高级的想法,比如‘我想看更多样化的内容’或‘我想少看手机’。但是能够表达这些想法,也就能修改,这样自己立下的flag就得靠自己坚持。”
对此有一个解决办法,就是用户找一位关系比较远的朋友帮你设定规矩,除此之外,IBM与MIT媒体实验室也许也在合作研发这个问题的答案。据了解,IBM科研人员将会在7月17日,于瑞典斯德哥尔摩举行的27届人工智能国际联合大会(IJCAI)上展示这项算法。
中华养生网