如果我要求你向我展示你的组织是如何决定哪些决策应该由人来做的,你会向我展示什么?
不是你的人工智能治理政策,也不是你的责任框架,而是实际的决策日志,它显示“这项工作需要人类的背景知识和判断,而这项工作不需要。原因如下。”
这个问题很少有人问。企业都急于证明自己节省了成本、提高了效率。.
2024年诺贝尔奖得主达龙·阿西莫格鲁最近解释了其中的原因:目前的激励机制默认倾向于自动化而非增强型技术。领导者并非有意识地选择这条道路,而是顺其自然。
诺贝尔经济学奖得主达龙·阿西莫格鲁在最近的麻省理工学院斯隆商学院播客节目中直言不讳地表示:人工智能并没有提高生产力。.
并非人工智能无法提高生产力。大多数组织部署人工智能时,其激励机制更倾向于自动化而非增强。结果,人工智能取代了工人,而不是赋能于他们。.
他认为,技术的发展方向并非一成不变。今天的选择决定着人工智能是能提升人类能力,还是仅仅加速自动化和加剧不平等。.
我在新加坡接触的大多数领导者并非主动做出这种选择,而是顺应这种趋势。.
他们问道:
这些都是战术性问题。而战略性问题却被忽略了:哪些工作需要人的判断、背景信息和对结果的责任,哪些工作则不需要?
因此,界限是由 IT 团队优先考虑效率指标、供应商销售自动化平台以及顾问优化成本降低来划定的。.
然后,通常在六个月左右,就会出现问题。.
到那时,曾经能够发现这些问题的人类能力已经丧失。懂得如何做出判断的团队要么已经离开,要么经过了再培训,要么被重新部署,要么被替换了。.
你正在承担本可以避免的后果。.
请立即统计一下您路线图中的人工智能项目数量。.
他们当中有多少人一开始就问自己:“这项工作应该自动化吗?还是需要具备相关背景知识、判断力并对结果负责的人来完成?”
如果答案是“无”,则表示您没有选择自动化,而是接受了默认设置。.
不妨把它看作是升级问题的反转。原本不应该由你来做的决定,现在却落到了不应该由算法来做的决定上。.
阿西莫格鲁说得对。目前的激励机制默认倾向于自动化。供应商兜售的是效率,咨询公司追求的是成本优化。试点项目的衡量标准是节省的时间,而不是保留的价值。.
但这并非必然。这是一种你并非有意识做出的设计选择。.
我使用 CAS 系统与客户一起在部署 AI 之前(而不是之后)绘制此边界。.
哪些工作需要人的判断力、生活背景、文化素养和对结果的责任感才能做好?哪些工作纯粹是机械性的,可以系统化而不失质量?
谁来决定这条边界在哪里?这不能委托给IT部门、采购部门或供应商。这是战略领导层的决定。.
随着自动化程度不断提高的压力越来越大,如何才能坚守这一界限?什么样的机制能够确保决策明确,而不是任其随意变化?
看看你公司目前正在运行的人工智能试点项目。.
有些事情确实是机械性的,速度和规模很重要,错误很容易发现和纠正,而且不需要文化背景。.
有些流程图上看起来机械化,但要做好却需要判断。文化背景、关系历史,以及对业务真正重要因素的理解,都至关重要,而这些因素远非算法能够衡量的指标所能涵盖。.
如果你无法清晰地划清界限,你就不是在驾驭人工智能,而是在默认地、而非有意地进行授权。.
“可以自动化”和“应该自动化”之间的差距,正是企业失去原本无意放弃的能力的根源所在。等到这种损失显现出来时,曾经提供这种能力的团队可能已经离职、接受再培训、重新部署或被替换。.
如果你正在部署人工智能,却没有明确决定哪些工作应该由人类完成,那么你就是在通过不作为做出选择。
阿西莫格鲁认为,这不仅仅关乎你的公司。领导者默认采用自动化所带来的累积效应是,人工智能加剧了不平等,而非促进了广泛的繁荣。但这一切都始于个人的选择。.
问题不在于“人工智能能否做到这一点?”,而在于“它是否应该做到这一点?”
如果这项工作需要有人亲身经历过你的行业、了解你的文化,或者对结果负责,那么它就是一项人类工作。人工智能应该围绕这些经验来构建,而不是凌驾于这些经验之上。.
如果你不确定这条界限在哪里,那是领导力问题,而不是技术问题。.
如果你不确定边界在哪里,那么猜错的代价比正确绘制边界的代价要高。.