(2026.04.22,新加坡)在航运业这样一个高度依赖经验、纪律与风险控制的传统行业,随着人工智能的普及运用和推广,航运业面对的已不仅是“要不要用AI”,而是“在什么环节用、由谁负责、出了问题谁来承担后果”。
今天下午,一场主题为海事中的人工智能、风险和决策(From Hype to Hard Decisions: AI, risk, and decision-making in a more volatile maritime landscape)的主题对话在凯源中心举行。来自 Seanergy海事控股的财务官斯特若(Stavros Gyftakis)、Harren Group 董事总经理尼斯(Nils Aden)、英美安全与技术平台(Anglo American)主管凯鹏特(Captain Raghav Gulati)、Orca AI首席执行官亚登(Yarden Gross),由劳埃德船级社(Lloyd’s Register)首席技术官查克布(Chakib Abi Saab)担任主持,围绕一个核心问题展开:当AI进入判断层面,行业如何从“相信技术”走向“承担后果”。

从“追逐风口”到“找准问题”
这场讨论中,嘉宾们结合各自的行业场景分享实践和看法。
人工智能的大潮袭来,Harren Group董事总经理尼斯(Nils Aden)直言不讳,企业首先要做的,不是在市场中随波逐流,追逐最炫目的技术,而是找出哪些工具能真正解决自己的问题。对传统航运企业而言,AI部署不是一次性的大替换,而是一种循序渐进的组织准备:从哪里开始学习,在哪里培训,在哪些点位先做小规模尝试,远比一上来计算宏大回报更重要。对企业而言,利润固然重要,但第一步更应是让组织学会如何与AI共处,让船上和岸上的人能借助新工具更有效率地工作,并最终提升安全。
这种理性的态度,也贯穿在其他嘉宾的回应中。亚登(Yarden Gross)指出,当前航运企业在AI上的投入大体分为两类:一类是安全系统,例如导航支持、驾驶台系统和与船员评估相关的软件,这类投资未必能立刻在损益表上体现收益,但一旦出问题,代价极大;另一类是燃油效率、技术支持和运营支持等工具,这些更容易直接反映为响应时间下降、低效率减少和成本压缩。
“也就是说,AI在航运业并不是一个单一命题,它既涉及可量化的经营回报,也涉及无法用短期财务数字简单衡量的风险管理”。亚登特别强调,判断一项AI系统是否值得采用,不是它有没有“AI”这块招牌,而是它是否容易嵌入现有工作流、责任边界是否清晰,以及人与机器之间的问责关系是否仍然明确。
正因如此,论坛讨论从一开始就把“治理”放在了与“技术”同样重要的位置。主持人查克布(Chakib Abi Saab)多次带出问题,探讨AI究竟如何在企业内部落地,如何影响人的判断,如何改变风险的吸收方式。
让AI支持决定,不是做决定
在整场对话中,凯鹏特(Captain Raghav Gulati)分享了航运的案例。按照他的说法,现代船舶每天都在产生海量数据,一艘船上可能布满数百个传感器,每几分钟就涌出成千上万的数据点。单靠人力,根本无法在日常运营中把这些信息全部读懂、吸收、再转化为有效判断。AI的价值,首先就在于把这些庞杂的数据整理成趋势、模式和可以执行的结论,让船员和管理层不必淹没在原始信息中。
他进一步指出,这种能力在驾驶台场景中尤为重要。航速、气象、海况、导航等多重信息持续流入,人类未必总能在高压环境下做出最优整理,而AI恰好擅长把高复杂度的数据压缩成更可用的判断辅助。换言之,AI在航运中最先显现价值的地方,不是“替代人”,而是帮助人减少认知负担,把注意力重新集中在真正重要的决定上。
不过,凯鹏特也明确指出,AI并非总是“减负”。当系统开始挑战人的决定,却又没有提供足够的上下文时,它反而会制造新的压力。他举例说,一个有经验的海员,当他看到前方复杂交通态势,知道将进入密集渔船区域时,会基于长期经验提前采取动作,因为他知道若不及早处理,后面会陷入更困难的局面。不过,如果把这样的判断交给AI,在缺乏完整情境推理的前提下,系统可能会认为人的动作“并不正确”。
“问题不在于AI一定错,而在于它给出的结论若不能让使用者理解背后的逻辑,就会削弱信任。对一个高风险行业来说,系统一旦失去信任,即使功能强大,也难以真正被使用。”他说。
这种“信任来自可理解性”的逻辑,也获得其他嘉宾的反馈。斯特若(Stavros Gyftakis)直言不讳,在当前阶段,AI就应该是支持决定,而不是做决定。在他看来,系统应当提供信息和洞察,但不必急于输出明确建议,因为一旦建议在复杂航行情境下被证明不合适,系统的可信度就会被迅速削弱。
他特别提到,很多航程优化系统在现实中都会碰到这种问题:系统给了建议,但船员未必照着走,原因往往不是抗拒技术,而是船员掌握着更多现场经验和额外变量。航运业眼下真正需要的,并不是把决策权交出去,而是在保持以人为本(human in the loop)的前提下,让机器把人看不完、算不过来的部分处理好。
真正危险的,是“看起来很对”的答案
随着讨论的深入,一个问题也浮现出来:在AI时代,真正危险的到底是什么?是坏数据,还是看似可靠的数据带来的错误自信?
嘉宾们的看法不一,但却提供了不同角度。凯鹏特明确站在错置自信(misplaced confidence)这一边。他的看法很直接:坏数据很多时候反而容易暴露,因为它看起来就可疑;可怕的是那些被包装成“合理答案”的输出,让人误以为自己已经掌握了真相,从而降低警惕。
他举例说,他不会做饭,因为太太要做一道菜,他就去问AI,然后他讲得头头是道,好像他自己是专家一样,但真正懂的人(他太太)一听就知道是错的。所以,当一个人借助工具获得了貌似完整的答案,很容易迅速产生“我已经懂了”的自信,可真正的专业人士往往一眼就能看出其中的问题。放到航运场景中,这意味着风险不只是数据错了,而是人开始对系统生成的结果失去必要的怀疑精神。
这一点,与亚登的分享形成呼应。他承认,如今AI输出往往带着极强的确定性口吻,这正是最容易误导使用者的地方。因此,他认为企业和管理层必须主动建立一种“挑战文化”(challenge culture)——鼓励员工质疑系统、挑战输出,不要认为AI很聪明,就默认而服从。
航运业强调纪律和层级,要实现这个文化转变并不轻松,然而却很必要。亚登说,当一个组织里几乎看不到对系统的怀疑和否认时,未必是技术做得足够好,反而可能说明人已经过度依赖机器。
Seanergy海事的斯特若则把问题推进到数据可靠性本身。他指出,行业正在经历一个明显转变:越来越多来自船上的信息开始传回岸上办公室,数据流大幅增加,但不同船型、不同传感器和不同传输条件,会造成数据质量并不一致。比如,有的传感器没有正确发送数据,有的信息没有顺利上传,在这种前提下,企业既要在船上实时处理决策,也要在办公室做战略判断,挑战显然比过去更大。“数据从来不是越多越好,关键是哪些数据真正值得信任、哪些洞察真正值得行动”。
整场论坛的嘉宾分享,客观而理性,没有仅仅停留在“AI能不能提高效率”,而是“当系统越来越强,人是否能保留足够的判断力”。对于航运业而言,AI正在成为不可回避的现实,但它并没有减轻人的责任,反而让责任变得更重。当机器越来越像是一个聪明的参与者时,人就更需要知道,什么时候该听,什么时候该怀疑,什么时候必须自己做最后的决定。
这或许正是这场论坛主题“From Hype to Hard Decisions”的含义:AI不是来替人做决定的,它迫使人们重新学习,什么是真正的决策。











































