一代人工智能将重塑未来的科技景观

在过去的10年里,科技领域出现了新的创新,从传统系统到云计算服务,再到勒索软件的保护。世界各地的技术团队正在将重点转向简化多云运营,目的是在不增加成本的情况下进行创新。快速采用生成人工智

在这个时代的科技繁荣之前,对生活负责往往取决于某人的一句话、一次握手、甚至一张餐巾纸……

一代人工智能将重塑未来的科技景观

在过去的10年里,科技领域出现了新的创新,从传统系统到云计算服务,再到勒索软件的保护。世界各地的技术团队正在将重点转向简化多云运营,目的是在不增加成本的情况下进行创新。快速采用生成人工智能(GenAI)工具对于保持竞争力至关重要。

但是,谁将为人工智能的行为负责呢?如何确保负责任的人工智能发展和道德创新?我们如何在不损害安全性、合规性、数据主权或尊重他人隐私的道德义务的情况下,最大限度地发挥技术的全部能力?

大企业在做什么?

GenAI是创新的明确催化剂,而责任则是当代最大的技术先驱的主题前沿和中心话题。

在今年的VMware Explore大会上,VMware总裁Sumit Dhawan和Aon首席技术官Rajeev Khanna探讨了三个关键话题之一:负责任的GenAI。这家全球专业服务企业在120个国家拥有约5万名员工,是VMware解决方案的忠实用户。根据Khanna的说法,GenAI“打开了一系列全新的机会。”其表示,Aon从事的是风险咨询业务,这意味着在对未来的兴奋与稳定、谨慎的做法之间保持平衡是谨慎的。

确实如此。人们很容易对科技领域下一个闪亮的目标产生热情,但要想实现创新并获得全企业的认可,还需要克服许多障碍。Khanna强调建立和维护负责任的人工智能使用和治理的文化,并且永远不要忽视人类监督对道德和负责任的人工智能使用的基础性作用。

将GenAI应用于所有企业

在VMware Explore 2023大会上,发布了重大进展。与Nvidia的合作产生了VMware私有AI基金会,将Nvidia企业AI集成到一个多功能平台中。这允许IT在各种AI/ML工作负载中有效地管理具有隐私、安全性和性能的大型语言模型。

VMware Tanzu产品组合简化了基于容器的应用程序管理并增强了安全性,而Edge Cloud Orchestrator支持快速边缘站点配置。更广泛的增强包括云控制平面,更强大的勒索软件保护和VMware cloud Foundation的性能提升,最终实现了跨云和边缘的传统,现代和AI/ML工作负载的强大平台。

我们正处于一个变革阶段,使各组织能够优化业务、减少浪费和促进创新。在VMware Explore大会上,该企业再次成为关键参与者,为技术部门提供装备,以提高生产力,加速创新并推动可持续的成功。

当涉及到GenAI时,我们能做什么?

VMware Explore小组讨论“负责任的人工智能:人类应该扮演什么角色?”强调我们也不确定人类在GenAI和多云技术的动态融合中扮演什么角色。该小组由首席技术官办公室负责人Richard Munro主持,在探索指导人工智能系统开发和人类参与的道德原则方面做得很好。

首先,数据记者、纽约大学阿瑟·l·卡特新闻研究所副教授Meredith Broussard将AI定义为“复杂而美丽的数学”。其表示,当谈到人工智能时,很多人会想到《终结者》、《星际迷航》或《星球大战》,但我们需要区分真实和想象。人工智能是一种“模式复制”,将数据输入计算机,计算机建立模型,模型显示数学模式,从而做出决策,生成新的文本、图像或音频,并预测结果。

然而,引起共鸣的是围绕人工智能将如何改变文化的讨论。Broussard也认同在人工智能系统中对抗偏见和误解的重要性,同时也假设,将会出现由人工智能偏见所表现出来的社会问题。

专家小组进一步探讨了私有人工智能。私有人工智能是指使用易于训练的小型模型。更少的资源意味着更低的碳足迹和更高的准确性。私有AI允许组织在不对环境产生巨大影响的情况下更快地迭代循环。其不仅涉及人工智能,还涉及云、客户、内容和环境。

总之,人工智能是一场漫长的游戏。要避免为了满足人工智能早期成功的要求而快速获胜的诱惑。重要的是,把选择作为人工智能的一种能力。

为道德智能的未来铺平道路

该小组强调,人们应该放心地提出问题,以指导人工智能产生预期的结果。我们的责任是定义人工智能应该做什么和不应该做什么,并提高人们对人工智能的认识,这样人们就能理解人工智能是如何放大现有的偏见和虚假信息的。

可靠:人工智能的可靠性取决于高质量的数据和模型中偏差的减少。还记得Apple在2014年推出的健康应用吗?其不包括月经追踪功能。减少偏见并在模型中建立充分的代表性,可以提高可靠性和问责制。 道德:人工智能部署的目的必须与社会的改善保持一致,遵守法规。在人工智能模型中嵌入道德准则可以确保负责任的使用。 安全:保护人工智能的学习模型至关重要,因为其可能会落入意外之手。保护敏感数据、员工信息和客户数据是必要的,知道人工智能模型是开源的还是私有的对安全至关重要。 隐私:数据的性质决定了其隐私要求。确定数据是否高度敏感、关键任务或受监管,对于确定人工智能模型中应该或不应该包含什么至关重要。 透明:与员工、客户和供应链合作伙伴就人工智能的作用进行公开透明的沟通,以培养信任,并确保每个人都了解人工智能的目的和潜在影响。 非伪装:解决人工智能不透明的挑战,了解算法的内部工作原理,其如何驱动结果,以及改变模型内变量以提高透明度的级联效应是至关重要的。 标准:实施护栏是确保负责任和道德的人工智能发展的关键方面。护栏有助于设定界限和指导方针,以防止人工智能系统造成伤害或做出不道德的决定。

但,最重要的是,以人为本。GenAI的真正潜力在于其对所有年龄和职业的人的可访问性,使其成为每个人都可以提问的工具。技术为人类服务。

负责任的人工智能意味着什么?

谁对人工智能负责?简短的回答是:所有人。Chris Wolf指出,我们不知道的还有很多,也没有行业标准。

组织、专家和政策制定者在塑造人工智能轨迹方面共同承担集体责任。当我们期待GenAI做出决策并提供洞察力时,像VMWare平台这样的解决方案使我们能够自信地转向和适应。我们生活在快速变化的情景和不断变化的经济中,使用的模型必须是弹性和动态的。智能云中的GenAI允许灵活性。参与促进合乎道德的人工智能开发和部署的讨论。先为人工智能建立基础设施,然后再扩展。最重要的是,就像Wolf建议的那样,不断提出问题,保持好奇心。

想象一下,GenAI在商业中的可能性……如果做得深思熟虑和负责任的话。

THE END
免责声明:本站所使用的字体和图片文字等素材部分来源于互联网共享平台。如使用任何字体和图片文字有冒犯其版权所有方的,皆为无意。如您是字体厂商、图片文字厂商等版权方,且不允许本站使用您的字体和图片文字等素材,请联系我们,本站核实后将立即删除!任何版权方从未通知联系本站管理者停止使用,并索要赔偿或上诉法院的,均视为新型网络碰瓷及敲诈勒索,将不予任何的法律和经济赔偿!敬请谅解!
Baidu
map