科技日报|用人工智能监工软件监督人工,遭遇非技术困局( 二 )


“AI监工的存在引发了一个始终伴随着人工智能发展的重要问题 , 那就是人工智能伦理问题 。 伦理是有界限的 , 超过一定的界限可能就涉及到法律问题了 。 ”韩亚洪举例说 , 比如无人驾驶汽车上路把人撞死了 , 这个法律责任该由谁担负呢?这就是人工智能伦理问题 。 对于装在电脑里的AI监工 , 虽然员工在办公 , 但电脑毕竟是私人的 , 监控员工就有可能会涉及到个人的隐私数据 。 因此AI监工的存在 , 首先要解决好人工智能伦理的问题 。
还有很多员工质疑“AI监工的决策是否能衡量员工的生产力”“评判的结果是否准确”……韩亚洪表示 , 这类软件肯定会考虑到大多数办公业务的情况 , 因此决策的结果大部分是准确的 。 但特殊情况肯定也是存在的 , 当机器遇到的是它从来没碰到过的特殊情况时 , 算法可能也会给出不准确的评判 。 因为这种监督员工工作效率的工作 , 即使由人来做 , 也有不准确的时候 。
解决伦理问题 AI监工或迎长远发展面对各种吐槽 , Enaible公司也感到非常委屈 , 根据他们的统计 , 8小时工作制里 , 其实人们有产出的只有3个小时 , 美国每年有4000亿美元被员工们的低效率损失掉 。 管理者本来就是要盯着员工干活 , 判断他工作中的问题 , 这个过程换成AI也一样 。 企业反正都要裁员 , 那不如精准地找出工作效率最低的人 。
“Enaible公司的说法也有一定的道理 , 但是未来要全面使用AI监工 , 首先需要厘清人工智能伦理与人工智能应用的关系 。 ”韩亚洪提出自己的看法 , 只有捋顺AI伦理问题 , 才能决定AI监工是否能继续使用 。 而让员工和老板都认可 , AI监工才有可能发展下去 。
“在技术层面 , 增加交互功能 , 对于完善机器算法模型将有很大的帮助 。 ”韩亚洪解释 , 当AI监工部署到一个公司时 , 可能开始的时候 , 它的性能没有那么好 。 而如果AI监工的模型能设计成可交互的形式 , 并且在交互中能够进化 , 它的能力就会在学习中再提升 。 就像我们上面提到的 , 如果遇到模型算法没有遇到过的数据 , 就有可能出现决策错误 。 如果这时候 , 通过交互告诉机器正确的决策 , 那么下次再遇到同类问题 , 机器的算法模型就会举一反三 , 给出正确的决策了 。
“而且现实世界里 , 员工的工作状态必然受其所处的社会、家庭和生活环境的影响 , 所以对员工的监督和管理也不可能只用与工作有关的冰冷冷的数据 。 ”韩亚洪表示 , 如果AI监工能变得更人性化一些 , 也就是算法模型设计得更个性化一些 , 比如通过捕捉员工的表情、动作等方面的变化 , 并通过大数据的蛛丝马迹去发现员工状态、情绪、身体健康等方面的异常和变化 , 并且把这些数据也融入到模型算法的决策中去 , 这样AI监工最终的决策也许会让人觉得更有人情味 。
正如《麻省理工科技评论》援引英国律师科瑞的话 , 良好的工作环境 , 应该让员工觉得自己的工作备受信任 , 而单纯的监控是无法做到这一点的 。
【科技日报|用人工智能监工软件监督人工,遭遇非技术困局】(原标题 用人工智能监督人工 遭遇非技术困局)