编译/于文浩

随着人工智慧(AI)快速发展,各大公司都急於从生成式AI中找出可以取得商业价值的方法。与此同时,这些公司也要小心不陷入无数陷阱,并导致公司失去优势,或是发生更严重的资讯外泄,可以说是举步维艰。而其中,作为内部的顶尖技术专家的资讯长则是首当其冲的要处理这些问题。

研究显示,许多高层因为围绕 ChatGPT 讨论,而增加对AI投资,也有70%的人也已经在探索新一代AI。(示意图/123RF)

AI在公司的应用可以说是越来越多。研究公司 Gartner 2023 年 5 月对 2,500 名高层进行调查的一份报告就显示,其中有约 45%的人因为围绕 ChatGPT 讨论,而增加对AI投资;有70%的人也已经在探索新一代AI。以下我们就将带你来看看影响资讯长做决定的10个问题:

更多新闻:不顾罢工抗议!Netflix 招聘年薪高达90 万美元AI产品经理

  • 允许或不允许

公司面临关於AI的第一个问题就是:「到底该禁止还是允许该工具的使用」。一些知名公司出於各种原因,包括担心机密数据外泄,就禁止 ChatGPT 等生成式AI工具,但也有一些公司允许有限地使用该技术,还有一些则完全开放。普华永道会计师事务所的美国数据风险和隐私负责人 Mir Kashifuddin 就表示:「现在的第一个问题是允许还是不允许,许多公司都在讨论我们是阻止AI还是允许它。」

  • 如何趁势而上

首席资讯长还意识到,他们必须学会利用技术的潜力,否则就会落後。因此,「如何使用生成式AI使其公司脱颖而出」成为一大重点。 研究公司 Gartner 的杰出分析师Frances Karamouzis 就表示:「首席资讯长应该找找『他们可以在哪里有效地使用生成式AI』。其可能性如此多,你必须将它们直接与业务战略保持一致。」

  • 提供员工的指导

Momentum Technology 风险谘询董事总经理Mary Carmichael 表示,当谈到 ChatGPT 等工具时,高层们面临着另一个大问题是:「他们现在向自己员工提供哪些指导?」Carmichael指出:「员工已经在问:『我应该使用这个工具吗? 我应该什麽时候使用它? 我应该注意什麽?』,但公司的 IT 似乎还没赶上」。

  • 业务中断

生成式AI是一项颠覆性技术,因此首席资讯长必须考虑他们的公司是否或如何成为这种力量的受害者。Carmichael 表示:「生成式AI对你的业务有何影响? 如,ChatGPT 如何影响你的商业模式?都是需要思考的问题」。并指出一些公司就因为面临来自AI的突然竞争,已经失去巨大的市场价值。

  • 还没制定好的政策

管理谘询公司麦肯锡公司的合夥人Douglas Merrill 表示:「我们都面临的一个特殊问题是,生成式AI很新,而且发展得非常快,所以目前还没有太多合适的政策。现在,新一代AI的风险指导方针不但很脆弱,也没有普遍被接受。」

  • 数据隐私和安全

2023 年春季中,韩国电子公司三星就因为发现其部分内部原始码被上传到 ChatGPT,而禁止员工使用生成式 AI 工具。公司高层都希望他们的首席资讯长、数据领导者和隐私主管采取行动,制定政策,实施控制,并部署监控工具,以确保员工遵循可接受的使用政策,而不会泄露专有数据和知识产权。

  • 遵守数据和隐私法

首席资讯长以及数据、法遵、风险和安全领导者面临的另一个问题是:如何监控并确保员工在使用生成式AI时不会违反数据隐私法和数据保护的规则。网路安全平台制造商 Deep Instinct 的首席资讯长 Carl Froggett 就警告说:「当你将数据放入由其他人控制的AI引擎中时,你就失去了对这些数据的控制权」。

  • 准确性问题

到目前为止,AI都仍然有输出准确性上的问题,并可能会给出错误的答案。而若是员工未经查证或是直接使用,就可能会造成很多问题。因此,首席资讯长也需要解决关於AI输出内容错误的问题,并确保员工知道确认的重要性。

  • 技能提升要求

随着AI迅速重塑公司对 IT 技能和人才的需求,所有员工都将需要学习如何使用生成式AI工具。与此同时,IT 员工也必须接受重新培训,学会使用生成式AI完成自己的工作,并掌握支持该技术在整个组织中使用所需的技能。正如 Advance.AI 法遵主管Goh Ser Yoong 所说:「首席资讯长必须评估其 IT 部门内的技能差距,并提供足够的培训和资源,以有效地理解和使用生成式AI」。

  • 新规定

世界各国政府正在讨论是否以及如何监管AI的使用。因此,首席资讯长也必须跟上与AI使用相关的、不断变化的法规和法律框架,如最近的欧盟AI法案。Goh 表示:「遵守数据保护法、知识产权法规、行业特定准则和道德标准非常重要。首席资讯长应与法律团队密切合作,了解并解决与生成AI相关的任何法律影响」。
参考资料:CIO