a computer keyboard with a bunch of icons on it

类似文章

  • ||||

    AI 全球新规时代:规则手册正在成型

    无许可创新时代的终结人工智能的“狂野西部”时代即将落幕。过去几年,开发者们在几乎没有监督和问责的情况下构建模型。如今,一套全新的全球规则手册正在形成,旨在用严苛的合规与安全架构取代那种自由。这不仅仅是建议或自愿准则,而是一系列伴随着巨额罚款和市场准入禁令的硬性法律。欧盟正凭借其全面的《AI法案》领跑,而美国也通过针对最强大模型的行政命令紧随其后。这些规则将改变代码编写和数据收集的方式,也将决定谁有能力在这个高风险领域竞争。如果你构建的模型能够预测人类行为,那么你现在就处于监管的显微镜下。这种转变标志着行业重心从“速度”转向“安全”。企业在发布系统前必须证明其不存在偏见,这是全球每一家科技公司必须面对的现实。 代码中的风险分级新规则的核心在于基于风险的监管方法。这意味着法律对音乐推荐引擎和医疗诊断工具或自动驾驶汽车的监管方式截然不同。欧盟为此类监管树立了黄金标准,根据AI对社会造成的潜在危害将其分为四个等级。被禁止的系统是指那些造成明确危害且被完全封杀的系统,例如威权国家用于追踪和评级公民的社会信用评分系统,以及除国家安全等极少数例外情况外,执法部门在公共场所使用的实时生物识别技术。高风险系统将受到监管机构最严格的审查,这些系统常用于关键基础设施、教育和就业领域。如果AI决定了谁能获得工作或贷款,它必须保持透明,并具备人工监督和高水平的准确性。有限风险系统(如聊天机器人)规则较少,但仍需保持透明,只需告知用户他们正在与机器对话。最低风险系统(如带有AI敌人的电子游戏)则基本不受干预。这一框架旨在保护权利而不阻碍进步。然而,这些类别的定义在法庭和董事会中仍存在争议。一个人眼中的简单推荐,在另一个人看来可能就是心理操纵。规则试图划定界限,但随着技术演进,界限也在不断变动。欧洲议会在其关于 EU AI Act 的最新简报中详细说明了这些类别。该文件构成了全球AI治理的基石,将讨论从抽象的担忧转向了企业为维持运营必须满足的具体操作要求。全球标准化竞赛这些规则并未止步于欧洲。我们正在实时见证“布鲁塞尔效应”的崛起,即当一个庞大市场制定规则时,其他所有市场为了保持竞争力都必须跟进。如果成本过高,全球性公司不会为巴黎和纽约分别构建不同的模型,他们只会按照最严格的标准进行开发。这就是为何欧盟框架正成为全球模板的原因。其他国家也在密切关注并起草自己的版本。巴西和加拿大已经开始制定与欧洲路径相似的法律。即使是通常倾向于轻监管以鼓励创新的美国,也在向更强管控迈进。白宫发布了一项行政命令,要求强大模型的开发者与政府共享安全测试结果。这创造了一个碎片化但正在趋同的监管世界。企业现在必须聘请律师团队来解读这些新要求。新兴市场的小型 startup 可能发现这些规则难以遵循,这可能导致只有大型科技巨头才有资源保持合规。这是一场高风险游戏,在赛车全速前进的同时,规则正在被书写。关于AI安全的 US Executive Order 是一个明确信号:自律时代已经结束。即使在政治气候分裂的情况下,对一定程度监督的需求已成为全球领导人之间难得的共识。 你有什么想让我们报道的AI故事、工具、趋势或问题吗? 向我们提交你的文章想法 — 我们很乐意听取。 合规办公室的一天想象一位名叫 Alex 的产品经理,他在一家为人力资源部门构建AI工具的 startup 工作。在新规出台前,Alex 每周五下午都会推送一次更新。现在,流程变得缓慢且谨慎得多。每一个新功能在部署前都必须经过严格的风险评估。Alex 必须记录训练数据,并证明其没有歧视受保护群体。他必须保留模型决策过程的详细日志,这使开发周期增加了数周。在典型的周二,Alex 不再忙于写代码或构思新功能,而是在与合规官审查模型卡片。他们正在检查 API 日志是否符合透明度和数据保留的新标准。这就是安全带来的摩擦。对于用户而言,这意味着新功能的发布速度可能会变慢,但也意味着被黑箱算法不公平拒绝工作的几率降低了。人们常高估这些规则对创新的阻碍,认为行业会陷入停滞。实际上,行业只是改变了形态。人们也低估了这些法律的复杂性,它不仅关乎避免偏见,还涉及数据主权和能源使用。矛盾无处不在:我们希望AI快速强大,但也希望它缓慢谨慎;我们希望它开放透明,但也想保护构建它的公司的商业机密。这些矛盾并未被解决,而是在被管理。这本新规则手册就是为了在这些矛盾中生存。Alex 每周必须处理几项具体任务:审查数据来源,确保所有训练集均合法获取。在每次模型迭代中运行偏见检测脚本。记录训练大型模型所使用的计算资源。更新用户界面,包含强制性的AI披露信息。管理第三方对公司安全协议的审计。一天结束时,Alex 感受到了新规则的压力。他知道这对公平至关重要,但也明白他在那些规则较少的国家的竞争对手正跑得更快。他怀疑自己的 startup 是否能承受合规的成本。这是成千上万开发者的现实。摩擦是真实的,而且将长期存在。欲了解更多关于这些变化如何影响行业的信息,请参阅我们最新的 AI policy analysis。 BotNews.today 使用人工智能工具进行内容研究、撰写、编辑和翻译。 我们的团队审查并监督整个过程,以确保信息有用、清晰和可靠。 我们正在见证法律部门获得与工程部门同等权力的转变。 新监管者面临的棘手问题谁真正从这些规则中受益?是公众,还是那些负担得起法律费用的科技巨头?如果一家 startup 必须将种子轮资金的一半用于合规,这是否会扼杀竞争?我们还必须探讨隐私背后的隐形成本。如果每个模型都必须审计,谁来执行审计?我们是否信任政府机构能够接触到每个主流AI的核心运作?此外还有全球不平等的问题。如果西方制定规则,全球南方国家怎么办?他们是否会被迫采用不符合当地需求的标准?我们被告知这些规则让我们更安全,但事实果真如此吗?还是说它们只是制造了一种虚假的安全感,而真正的风险转移到了暗网中那些不受监管的角落?我们必须质疑,一部在 2026 年编写的法律是否能跟上每月都在变化的技术。代码与法律之间的滞后是许多问题可能滋生的缺口。联合国 United Nations AI Advisory Body 正试图解决这些全球性缺口,但达成共识非常困难。矛盾依然存在:我们想要保护,却又害怕过度干预;我们想要创新,却又担心无法完全理解的系统带来的后果。这些问题没有简单答案,当前的法律只是寻找答案的第一次尝试。 合规的技术架构对于高级用户和开发者来说,规则变得非常具体。美国的行政命令将计算能力作为风险的代理指标。如果一个模型训练使用的浮点运算超过 10^26 次,则触发强制报告要求。虽然这是一个巨大的计算量,但随着硬件性能提升,更多模型将触及这一极限。开发者还必须关注数据来源,你不能再随意抓取互联网数据并祈求好运,你需要证明你有权使用这些数据。此外,红队测试(red-teaming)也有了新标准,即雇佣人员尝试攻破你的AI。这些测试结果现在必须在特定司法管辖区内记录并与监管机构共享。API 提供商也面临新限制,他们可能需要验证客户身份,以防止两用AI落入不法之徒手中。模型的本地存储是另一个担忧领域。如果一个模型小到可以在笔记本电脑上运行,该如何执行这些规则?答案通常是通过硬件级限制或对AI生成内容进行强制水印。这些技术门槛是该领域从业者的新基准。你现在必须考虑以下技术要求:为所有模型训练会话实施稳健的日志记录。开发用于文本和图像输出水印的自动化工具。为第三方模型审计设置安全环境。确保 API 速率限制不会绕过安全过滤器。维护所有人工介入操作的详细记录。这些要求改变了开发者的工作流程。重点不再仅仅是优化准确性或速度,而是构建一个从底层开始即可审计的系统。这意味着在基础设施上花费更多时间,而在核心算法上花费更少时间。这也意味着本地存储和离线模型将面临越来越大的压力,必须包含这些相同的安全功能,这可能会影响边缘设备的性能。

  • ||||

    平台与法律能跟上 Deepfake 的进化吗?

    你是否曾看到一段名人说出荒唐话的视频,并怀疑自己的眼睛?别担心,你并不孤单。我们正生活在一个技术能让任何人看起来或听起来像是在做任何事的时代。这听起来有点像魔法,但也带来了一些关于“真实性”的重大疑问。好消息是,世界正在觉醒。从大型科技公司到地方政府,人们都在努力确保我们依然能信任屏幕上的内容。核心在于:虽然 AI 技术越来越聪明,但我们保障安全和获取信息的方式也在飞速进化。这是一种平衡的艺术——我们既想保留 AI 带来的创意乐趣,又要确保不法分子无法利用它来欺骗我们。本指南将带你了解平台与法律如何联手,让互联网成为每个人都能安心使用的乐园。 把 Deepfake 想象成一个“数字木偶”。过去,拍电影需要演员、服装和大型片场;现在,电脑只需几张照片或一段简短的语音,就能创作出全新的视频。其核心是所谓的“神经网络”。想象两台电脑在玩传球游戏:一台电脑尝试制作虚假图像,另一台则试图判断真伪。它们重复数百万次,直到假图像逼真到第二台电脑也无法分辨。这就是那些超逼真视频的由来。这不仅限于面部,语音克隆也是其中的一部分。电脑只需听你说话几秒钟,就能模仿你的语调和风格重复任何话。这在制作搞笑迷因或帮助失声者发声时非常棒,但也可能被用于不怀好意的目的。 发现错误或需要更正的地方?告诉我们。 技术本身只是工具,就像锤子一样。你可以用锤子盖房子,也可以用它砸窗户。目前,我们都在学习如何建立“篱笆”,以便在玩转这些数字玩具的同时保持安全。这不仅改变了我们对媒体的看法,也为我们在全球范围内讲故事和分享信息提供了创意空间。通过了解这些数字木偶的制作原理,我们能更敏锐地在 Feed 中识别它们。保持好奇心,留意那些暴露真相的小细节,就是最好的防御。 全球共同努力,维护真实性Deepfake 不仅仅是局部问题,而是一个全球性话题。各国都在研究如何制定行之有效的规则。政客发表安全演讲是一回事,但通过法律要求公司标注 AI 内容或面临巨额罚款则是另一回事。我们正在从单纯讨论问题转向对违规者实施真正的惩罚。这有助于创造一个更安全的空间,让大家分享想法时不必担心被电脑程序冒名顶替。YouTube 和 Meta 等平台也在升级。它们正在开发能自动检测 AI 修改内容的系统。这对用户来说是个好消息,因为我们不必成为技术专家也能知道自己在看什么。如果视频是 Deepfake,平台会贴上标签。这种透明度正是我们维持互联网“友好社区”氛围所需要的。这也帮助创作者证明其作品的真实性和原创性。你可以通过查看 ai technology trends 的最新更新,了解这些系统的构建方式。这些规则的影响力巨大。例如,在大选期间,法律能确保选民获得候选人的真实信息,防止有人在投票前制作虚假视频谎称候选人改变立场。通过明确的规则和真正的处罚,我们可以保护社区的核心。这是技术开发者、用户和立法者之间的团队协作。当大家齐心协力时,结果对全世界都是巨大的福音。 Deepfake 如何影响我们的日常生活让我们看看小企业主 Sarah 的一天。Sarah 接到一个电话,对方的声音听起来和她的银行经理一模一样。声音完美,对方甚至知道她的名字和业务细节,并要求她紧急转账以弥补一个小错误。因为声音太真实,Sarah 差点就照做了。但她突然想起,银行经理通常会用另一个号码联系她。这是一个语音克隆被用于欺诈的真实案例。这让问题变得非常私人且紧迫,因为它不再只是名人的恶搞视频,而是你熟悉的声音在向你求助。这就是为什么目前的焦点转向了实际的欺诈防范。虽然看电影明星出演从未演过的角色很有趣,但真正的风险在于我们的银行账户和个人安全。诈骗者每天都在利用这些工具行骗。然而,随着讨论的深入,像 Sarah 这样的人变得更加警觉。他们知道要核实并多问几个问题。这种意识是我们最好的防线。平台也在努力在这些虚假电话和信息到达我们之前拦截它们。我们都应该有底气在转账前停下来,确认对方的身份。想象另一种场景:创作者使用 Deepfake 制作搞笑的恶搞视频。这是技术光明的一面,它带来了前所未有的喜剧和艺术形式。只要创作者坦诚使用了 AI,这就是娱乐大众的绝佳方式。新法律的目标不是扼杀这种创造力,而是确保它不会与现实混淆。Sarah 下班回家后,看到一段有趣的 AI 视频并开怀大笑,因为她知道这只是娱乐。这就是我们都想居住的互联网环境。如果我们想了解这些变化,可以关注 BBC technology news 以获取全球视角。保持信息灵通至关重要,你甚至可以订阅更新,让自己始终处于领先地位。 你有什么想让我们报道的AI故事、工具、趋势或问题吗? 向我们提交你的文章想法 — 我们很乐意听取。 语音克隆带来的日益严峻的挑战语音克隆尤其棘手,因为我们太依赖耳朵来判断对方是谁。视频中我们可以寻找故障或奇怪的光影,但即使在低质量连接下,语音也可能非常有说服力。这就是为什么许多公司正在研究如何为音频文件添加“数字签名”。这就像证明声音真实的秘密代码,让诈骗者更难冒充他人。这是一个利用技术解决技术引发问题的聪明方案。我们每天都能看到更多这样的创新,它们正在改变我们应对挑战的方式。如何在保护隐私和确保互联网免受有害虚假信息侵害之间找到完美平衡?这是一个没有简单答案的大问题,但提出这个问题能引导我们走向正确的方向。我们既要确保规则不会阻碍人们的创造力或社交,又要针对欺诈和操纵提供强有力的保护。这就像给汽车安装安全带——起初可能觉得有点束缚,但它是为了在享受旅程的同时保障每个人的安全。通过保持好奇并讨论这些议题,我们可以塑造一个让技术在不损害价值观或安全的前提下,以最佳方式服务于我们的未来。 有问题、有建议或有文章想法? 联系我们。 极客专区:进阶用户指南对于喜欢钻研细节的人,让我们聊聊幕后的运作机制。最令人兴奋的发展之一是 C2PA 标准。这是一项技术规范,允许创作者将元数据附加到文件中。这些元数据充当数字足迹,显示图像或视频的来源以及是否经过 AI

  • |||

    2026年,谁才是AI浪潮的真正掌舵人?

    合成时代的全新建筑师AI领域的“明星创始人”时代正在落幕。在2026年初,大众的目光还聚焦在几位承诺带来无限便利的魅力型领袖身上。而今天,讨论的重心已从聚光灯下转移到了服务器机房和立法议会。影响力不再取决于谁能发表最鼓舞人心的演讲,而在于谁掌握了物理基础设施以及让这些系统运转的法律框架。如今,真正推动AI进程的是那些管理能源电网的人、定义数据所有权的监管者,以及优化推理成本的工程师。我们正见证从关注AI“是什么”到关注“如何实现”及其“代价几何”的转变。 许多人对这个话题存在误区,认为几家大型科技公司仍在真空环境中做决策。这大错特错。虽然巨头们依然强大,但他们现在也受制于一个复杂的利益相关者网络,包括主权财富基金、能源供应商以及正在重写创意工作规则的大型工会。尽管技术在硬件层面高度集中,但影响力却已实现去中心化。要洞察未来,我们必须透过新闻稿,关注能源、法律和劳动力等现实利益。从炒作到基础设施的转向当今AI的主要推动者是“算力护城河”的构建者。这不仅仅是拥有多少GPU的问题,而是能否维持训练和运行这些模型所需的巨大电力负载。企业现在纷纷收购发电厂或与核能供应商签署独家协议,这使得能源政策成为了科技新闻的核心。当一个小地区的公用事业委员会决定电力分配时,他们对全球AI轨迹的影响力甚至超过了任何社交媒体网红。这是一个残酷的现实,反驳了AI作为一种纯粹“云端”或虚无技术的观点。它本质上是非常物理化的。 另一个重大转变是“数据策展人”的崛起。过去,模型是在原始互联网数据上训练的,但当互联网充斥着合成内容时,那个时代就结束了。现在,最具影响力的人是那些掌控高质量、人类生成数据的人,包括传统媒体机构、学术机构和垂直专业社区。这些群体意识到他们的档案比当前的产出更具价值。他们不仅在设定参与条款,更在要求在模型设计决策中占据一席之地。这在开放信息需求与保护知识产权的必要性之间制造了摩擦。我们还必须关注“对齐工程师”的影响力。他们的任务是确保AI不会产生有毒或错误的结果。他们的工作往往隐于幕后,但正是他们决定了我们每天所用系统的道德和伦理边界。他们是机器所定义“真相”的守门人。这种影响力常被技术术语掩盖,却深刻影响着我们对现实的感知。当AI拒绝回答问题或提供特定倾向时,这是少数人深思熟虑后的结果。这就是公众认知与现实产生偏差的地方。大多数用户认为AI是中立的,但它实际上是其训练和对齐协议的反映。硅基与主权的地缘政治影响力也在国家层面被重新划分。各国政府不再满足于让私营企业主导。我们正见证“主权AI”的兴起,各国竞相构建自己的模型以保护文化和语言遗产。这是对美国中心化模型主导地位的直接回应。欧洲、亚洲和中东的国家正在投入数十亿美元,以确保不依赖外国技术。这种地缘政治竞争正将讨论推向安全与自给自足。这不再仅仅是一场商业竞赛,而是国家利益所在。这意味着政策制定者已成为行业内最重要的角色之一。 BotNews.today 使用人工智能工具进行内容研究、撰写、编辑和翻译。 我们的团队审查并监督整个过程,以确保信息有用、清晰和可靠。 全球标准与本地控制之间的张力是2026年的一个重大主题。虽然有人主张统一规则,但另一些人认为AI应反映创造它的社会价值观。这导致了一个碎片化的格局:在某个国家合法的模型在另一个国家可能被禁止。那些能够弥合这些差距的人——外交官和国际律师——正成为技术发展的核心。他们将决定我们拥有的是一个全球化的AI生态系统,还是一个个封闭的“围墙花园”。这直接影响着从贸易到人权的方方面面。你可以在最新的AI行业分析中找到关于这些转变的更多细节。“硬件经纪人”的作用同样不可忽视。AI专用芯片的供应链极其脆弱。少数几家公司和国家控制着最先进硅片的生产,这赋予了他们巨大的杠杆作用。如果台湾的一家工厂或英国的一家设计公司出现中断,整个全球AI产业都会受到冲击。这种权力的集中是科技领袖们持续焦虑的来源。这意味着AI领域最有影响力的人可能不是软件工程师,而是物流专家或材料科学家。这与AI是软件驱动领域的传统认知形成了鲜明对比。与“隐形之手”共存要了解这种影响力如何发挥作用,不妨看看数字内容创作者的一天。他们醒来后查看由AI推荐引擎驱动的分析数据,使用AI工具编辑视频和撰写脚本。但他们同时也陷入了与平台的持续博弈,这些平台利用AI检测“低质量”或“非原创”内容。编写算法决定什么是“原创”的人,对该创作者生活的影响力远超其经纪人。这就是AI驱动经济的现实:一个规则隐形且可能在一夜之间毫无预警地改变的世界。考虑一下这种影响力在日常生活中体现的几种方式:基于隐藏标准筛选简历的自动化招聘系统。实时改变杂货或保险成本的动态定价模型。决定哪些政治观点对公众消费“安全”的内容审核过滤器。根据预期结果和成本优先考虑患者的医疗保健算法。使用非传统数据点确定信贷额度的金融工具。企业高管同样面临这些风险。他们被迫将AI整合到每个部门以保持竞争力,但同时也对法律和声誉风险感到恐惧。如果AI做出有偏见的决定或泄露敏感数据,高管将承担责任。他们夹在对速度的需求与对安全的需求之间。为AI提供保险和审计服务的公司正成为企业界的新权力经纪人。他们将决定哪些公司是“AI就绪”的,哪些风险太大而无法触碰。这是影响力从创造者向守门人转移的典型案例。 创作者经济也在被重塑。作家、艺术家和音乐家发现他们的作品正被用于训练可能取代他们的模型。这里的影响力在于集体谈判单位和为“训练版税”而战的法律团队。这是一场关于人类创造力未来的战斗。如果创作者获胜,AI将成为支持人类工作的工具;如果失败,它可能成为替代品。这些法律斗争的结果将定义未来十年的文化史。这不是一场抽象的辩论,而是关乎生计和人类表达价值的抗争。路透社的近期报道强调了针对大型科技公司提起的版权诉讼数量正在不断增加。 你有什么想让我们报道的AI故事、工具、趋势或问题吗? 向我们提交你的文章想法 — 我们很乐意听取。 “黑盒”的代价我们必须对当前的轨迹保持怀疑。谁在为我们使用的“免费”AI工具买单?隐藏的成本是巨大的。有大规模水资源和能源消耗的环境成本,有我们每次与模型交互时放弃的数据隐私成本,还有依赖机器思考带来的认知成本。我们需要对这些系统的透明度提出尖锐的问题。如果我们不知道模型是如何得出结论的,我们真的能信任它吗?缺乏可解释性是一个在营销材料中常被掩盖的重大局限。另一个担忧是思想的“单一文化”。如果每个人都使用相同的几个模型来生成想法和解决问题,我们会不会失去跳出思维定势的能力?“模型构建者”的影响力延伸到了我们构建思维的方式。这是一种微妙但深刻的控制形式。我们正在训练自己以AI能理解的方式说话和思考。这可能导致文化的平庸化和思想多样性的丧失。我们必须小心,不要让AI的便利性蒙蔽了我们对人类直觉和独特性的珍视。《自然》杂志的研究已经开始探讨算法偏见对人类决策过程的长期影响。 最后是问责制问题。当AI犯错时,该怪谁?是开发者、用户还是数据提供者?当前的法律体系尚未准备好处理这些问题。那些正在起草新法律的人实际上是在决定我们社会未来的责任归属。这种巨大的影响力在几乎没有公众监督的情况下被行使。我们需要确保对话不仅由科技高管和政客主导,还要由受这些决定影响最大的人参与。风险太大,不能仅仅留给一小群内部人士。智能的基础设施对于高级用户和技术社区来说,讨论已经转移到了“极客区”。这是真正工作发生的地方。我们看到人们正从大规模通用模型转向可以在本地运行的小型专业模型。这里的影响力在于那些创造高效量化方法和本地托管解决方案的开发者。这是从大型云服务提供商手中夺回权力的过程。如果你能在自己的硬件上运行高质量模型,你就拥有了API系统所不具备的独立性。这是AI“现实”变得对个人更加触手可及的关键领域。推动这一转变的关键技术因素包括:API速率限制以及高容量企业任务中token成本的上升。检索增强生成(RAG)的发展以减少幻觉。针对运行70B+参数模型而优化的本地存储和内存。在特定基准测试中足以媲美专有系统的开源权重出现。使用“合成数据循环”来训练模型,而无需依赖新的人类输入。工作流集成是新的战场。仅仅拥有聊天界面已不再足够。AI必须直接嵌入到我们使用的工具中,从电子表格到代码编辑器。影响力在于那些设计这些集成的人。他们决定了我们如何与技术互动。如果集成是无缝的,我们甚至不会注意到AI的存在。这种“隐形AI”比我们刻意去使用的AI强大得多,它成为了我们潜意识工作流的一部分。根据《麻省理工科技评论》的说法,AI采用的下一阶段将由这些深度、专业的集成定义,而不是通用聊天机器人。 我们还需要考虑当前技术的局限性。在训练数据可用性方面,我们正撞上一堵墙。AI的下一次飞跃可能来自算法效率,而不仅仅是规模的扩大。这让影响力回到了研究人员和数学家手中。他们将找到下一个突破口,让我们用更少的资源做更多的事。这是从“暴力计算”AI向“优雅”AI的转变。那些能解决效率问题的人将成为本十年后半段讨论的推动者。他们将决定AI是保持为资源密集型的奢侈品,还是成为无处不在的公用事业。控制的现实在2026年,讨论的核心是关于从理论到实践的过渡。真正重要的人是那些能在现实世界约束下让技术发挥作用的人,包括监管者、能源供应商、数据所有者和专业工程师。他们正在处理早期炒作所忽略的矛盾和难题。影响力已从谈论未来的人转移到了真正构建管道和规则的人手中。这是一场比几年前更清醒、更复杂、也更重要的对话。 结论很明确:要了解AI的未来,别再盯着杂志封面上的CEO。看看那些管理电网的人、争论版权的律师,以及优化本地模型的工程师。他们才是真正的掌舵人。权力不再在于承诺,而在于基础设施。随着我们不断前行,风险只会越来越高,对清醒、怀疑性分析的需求也只会增长。AI明星时代已经结束,AI建筑师时代已经开启。 编者按:我们创建本网站,旨在作为一个多语言人工智能新闻和指南中心,为那些并非电脑极客,但仍然希望了解人工智能、更有信心地使用它并关注正在到来的未来的人群服务。 发现错误或需要更正的地方?告诉我们。

  • ||||

    自动化、工作与控制:AI 背后隐藏的政治博弈

    围绕人工智能的叙事已经从单纯的技术奇迹演变为政治博弈的战场。政府和企业不再仅仅是在构建模型,他们更是在构建论据,以证明其存在和影响力的合理性。当大众还在关注聊天机器人是否能写诗时,真正的斗争早已转向了谁在掌控现代劳动力背后的基础设施。这不仅仅是关于机器人取代工作的讨论,更是关于政治参与者如何利用对自动化的恐惧来推动特定的政策议程。一些领导者利用失业威胁来要求全民基本收入,而另一些人则利用效率的承诺来削弱劳动保护。核心结论是:AI 正成为国家和企业巩固权力的工具。在未来十年,谁掌握了这些系统,谁就拥有了话语权。技术本身反而成了次要的,它所带来的权力动态才是关键。 叙事控制的架构政治利益完全取决于如何定义 AI 的对话。对于大型科技公司而言,他们倾向于强调“生存风险”。通过聚焦于超级智能失控的假设性可能,这些公司引来了他们最擅长应对的监管。这为小型竞争对手设置了准入门槛,因为后者无法负担满足新标准所需的庞大法律和合规团队。在这种情况下,政治利益表现为一种被许可的垄断。与此观点一致的政客们既能表现出保护人类免受科幻灾难的样子,又能获得他们名义上正在监管的公司的竞选支持。这是一种互惠互利的安排,以安全为幌子维持了现状。而在另一方,开源开发的支持者将 AI 视为一种民主化力量。他们认为,保持模型透明可以防止少数 CEO 成为人类知识的守门人。这里的政治动机是去中心化。这吸引了民粹主义运动和那些对大科技公司影响力持怀疑态度的人。然而,这种叙事往往忽略了运行这些模型所需的巨大算力成本。即使代码是免费的,硬件却不是。这种矛盾仍然是辩论中的核心张力。 BotNews.today 使用人工智能工具进行内容研究、撰写、编辑和翻译。 我们的团队审查并监督整个过程,以确保信息有用、清晰和可靠。 通过分析这些相互竞争的故事,我们可以发现,讨论的重点很少在于软件今天能做什么,而在于谁能掌握未来数据中心的钥匙。这些言论分散了人们对硬件所有权和能源消耗等物质现实的注意力。 国家利益与新的算力集团在全球范围内,AI 正被视为“新石油”。各国开始将“主权 AI”视为国家安全的必要条件。这意味着对数据、人才和处理能力拥有国内控制权。对于法国或阿联酋这样的国家来说,其政治利益在于摆脱对美国或中国平台的依赖。如果一个国家的医疗或法律系统依赖外国的 API,它实际上就将主权让渡给了外国公司。这导致了国家资助的 AI 计划和严格的数据本地化法律激增。其目标是确保 AI 产生的知识产权和经济价值留在国界之内。这一趋势是对全球化科技平台无视地理边界运作时代的直接回应。对劳动力的影响同样具有政治性。全球北方的政府正在利用 AI 来应对人口老龄化和劳动力短缺。通过自动化常规任务,他们希望在减少工人的情况下保持经济增长。相比之下,发展中国家担心 AI 会削弱他们在低成本制造和服务业的竞争优势。这在能够负担自动化技术的国家与依赖人力出口的国家之间造成了新的鸿沟。尚未解决的问题是,当富裕国家的智能成本趋近于零,而其他国家成本依然高昂时,全球贸易将如何运作。这种转变已经影响了外交关系和贸易协定,各国都在争先恐后地确保获得高端半导体。了解这些 AI 治理与政策趋势 对于追踪技术与权力交集的人来说至关重要。 官僚与黑箱设想一下,在某地政府工作的中层政策分析师 Sarah 的一天。她的工作是管理住房补贴的分配。最近,她的部门实施了一个自动系统来标记欺诈申请。从表面上看,这是效率的胜利。Sarah 处理文件的速度是以前的三倍。然而,政治现实更为复杂。该算法是在包含人类偏见的历史数据上训练的。结果,某些社区在没有明确解释的情况下被拒绝的比例更高。Sarah 无法向沮丧的申请人解释这一决定,因为该模型是一个“黑箱”。对于她的上司来说,政治利益在于“合理推诿”。他们可以声称系统是客观且数据驱动的,从而保护自己免受不公或腐败的指控。 这种情况在私营部门也在上演。一家大型营销公司的项目经理现在使用 AI 生成初始营销草案。这减少了对初级文案的需求。公司节省了成本,但经理现在整天都在审计机器生成的内容,而不是指导员工。工作的创造性灵魂被高速的概率文本流水线所取代。公司领导高估了产出质量,却低估了长期机构知识的流失。当初级职位消失时,未来高级人才的培养管道也就枯竭了。这创造了一种空心化的企业结构,高层与行业的基础技能脱节。矛盾在于,虽然公司在短期内利润更高,但随着时间的推移,它变得更加脆弱且缺乏创新。 你有什么想让我们报道的AI故事、工具、趋势或问题吗? 向我们提交你的文章想法 — 我们很乐意听取。 对于普通用户来说,这意味着每一个互动都受到一层隐形的政治选择的调节。当你问搜索引擎一个问题时,答案是由开发者的安全过滤器和政治立场决定的。当你申请工作时,你的简历会被一个可能被要求优先考虑“文化契合度”而非技术能力的 AI 过滤。这些都不是中立的技术决策,而是政治行为。其影响是个人能动性的缓慢侵蚀,取而代之的是系统性的效率。我们正在用人类判断的混乱感换取机器冰冷、可预测的逻辑。隐藏的成本是失去了对决定提出上诉或理解结果背后“为什么”的能力。 隐形效率的代价这种转变的隐藏成本是什么?我们必须问,谁在为训练这些庞大模型所需的能源买单,谁拥有冷却数据中心的水资源?环境影响往往被排除在政治胜利的欢呼之外。此外,当每一个行为都成为预测模型的数据点时,隐私概念会发生什么?政治动机是尽可能多地收集信息以更好地管理人口。这导致了一种被营销为“个性化”的持续监控状态。如果政府能在抗议发生前预测到它,或者公司能预测员工离职,权力平衡就会果断地向机构倾斜。我们正在建立一个世界,在这里,最安静的声音最容易被忽视,因为它们不符合统计规范。 还有一个知识产权问题。创作者眼睁睁看着自己的作品被用来训练那些最终将与他们竞争佣金的系统。政治回应一直很缓慢,因为受益者往往是经济中最强大的实体。这是劳动力的窃取,还是公共领域的自然演变?答案通常取决于谁在资助这项研究。我们倾向于高估这些系统的“智能”,却低估了它们作为财富再分配引擎的作用。它们获取互联网的集体知识,并将货币化的能力集中在少数人手中。这在提供数据的人和拥有算力的人之间产生了根本性的张力。主权用户的基础设施对于高级用户来说,AI 的政治性体现在技术规格中。对于那些寻求摆脱企业或国家控制的人来说,转向本地运行是最重要的趋势。在 Mac Studio 或带有多个 GPU 的专用 Linux

  • |||

    AI 的新公众面孔:构建者、批评者与权力掮客

    认识塑造我们智能未来的友好面孔你是否曾觉得科技就像一团漂浮在头顶、神秘莫测的数学云雾?长期以来,我们许多人眼中的人工智能(AI)正是如此。它似乎只发生在充满嗡嗡作响的电脑的安静房间里。但现在,一切都在飞速改变。我们正目睹幕后人员走向台前。这对我们所有人来说都是极好的消息,因为它让科技变得更加人性化、更易于亲近。我们不再只是单纯地使用工具,而是开始了解那些引导工具行为的人们的思想与初衷。这就像终于认识了新社区里的邻居。当我们知道是谁在打造引擎、是谁在确保刹车系统可靠时,我们对未来的旅程也会感到更加自信。本文将带你认识这些新的公众面孔,并探讨为何他们的独特角色对你的日常生活至关重要。 核心观点在于:影响力已取代了单纯的名气。我们关注的不再仅仅是那些因出名而出名的名人,而是那些有能力塑造我们工作、学习和娱乐方式的人。通过聚焦这些不同类型的权威,我们可以更清晰地洞察世界的发展方向。这是一个充满阳光的视角,因为对话变得比以往任何时候都更加开放。无论你是小企业主还是科技爱好者,了解这些面孔都能帮你做出更好的选择。现在正是保持好奇心、紧跟这些引领潮流的友好专家步伐的好时机。 发现错误或需要更正的地方?告诉我们。 AI 厨房里的三大核心角色要理解正在发生的一切,不妨把 AI 世界想象成一个大型、友好的社区厨房。在这个厨房里,有三类截然不同的人确保一切都恰到好处。首先是“构建者”(Builders)。他们是真正将原料组合在一起的人。他们编写代码并训练模型,帮助你撰写邮件或规划去杂货店的最佳路线。他们专注于每天让事情变得更好、更快。他们热衷于寻找新方法来帮你整理照片或规划下一次度假。当他们成功时,我们得到的工具就像魔法一样,但实际上它们只是非常巧妙的工程杰作。其次是“批评者”(Critics)。别被这个名字误导了。他们不是只会抱怨的人。在我们的厨房比喻中,他们是负责品尝的食客,确保食物对每个人来说既健康又安全。他们着眼于大局,提出关于公平与安全的重要问题。他们提醒构建者检查过敏原,确保厨房保持清洁。他们的影响力巨大,因为他们有助于建立信任。当一位批评者为新工具点赞时,我们都能松一口气,因为知道有人从各个角度审视过它。他们是打造真正服务于人类的科技不可或缺的伙伴。最后是“权力掮客”(Power Brokers)。他们是管理厨房并与社区沟通的人。他们是监管者和领导者,负责制定每个人都遵循的大规则。他们确保全球各地的厨房能够协同工作,并确保食物既实惠又普及。他们关注这些工具如何影响整个地球,而不仅仅是某一道菜。他们关心的是整个食品系统。通过了解这三种角色,我们可以看出 AI 并非单一事物,而是由不同职责但同样重要的人们共同协作的成果。 全球影响力如何让世界变得更紧密这些公众人物的影响力是全球性的。无论构建者是在加州的阳光办公室还是伦敦的舒适工作室工作,他们的选择都会影响到世界各地的人们。这真是个好消息,意味着我们正在见证一种更统一的科技发展方式。当欧洲的权力掮客设定了高标准的隐私准则时,它往往也会成为全球的标准。这种影响力远比单纯销售产品强大得多。它旨在树立一种跨越国界的关怀与责任基调。这意味着偏远村庄的学生也能使用与大城市 CEO 相同的高质量工具。人们往往高估了某个人在这个领域拥有的权力,认为一个天才就能在一夜之间改变一切。但现实是,影响力是分散的。它是一个人际网络。构建者倾听批评者的意见,权力掮客则倾听两者的声音。这种持续的对话推动着科技向积极方向发展。我们也往往低估了这些公众人物对普通用户的关心程度。他们中的大多数人都是出于让世界变得更美好的真诚愿望。他们希望看到 AI 帮助医生找到治愈疾病的方法,或帮助教师为每个孩子提供个性化教育。这种共同目标使全球 AI 社区如此充满活力与乐观。由于这些人物现在已公开化,我们可以以友好的方式监督他们。我们可以通过社交媒体关注他们的动态,了解他们的工作重点。这种透明度对每个人来说都是巨大的胜利。它消除了科技的神秘感,取而代之的是一种伙伴关系。我们同舟共济,引领潮流的人们也非常乐意与我们分享进展。这种全球连接确保了 AI 的益处得到广泛共享,并确保我们都在为一个充满潜力的光明未来而努力。 现代企业主的一天让我们看看这一切在现实中是如何运作的。想象一位名叫 Maria 的女士,她经营着一家销售定制珠宝的小型网店。Maria 不是科技专家,但她非常擅长自己的工作。她的一天从查看 AI 助手开始,看看哪些任务最紧急。这个工具是由那些希望让像 Maria 这样的人生活更轻松的构建者创建的。因为她关注了几位关键的 AI 推广者,她非常清楚如何让助手起草她的早间通讯。她利用构建者的影响力,每天早上为自己节省了一个小时的工作时间。当天晚些时候,Maria 想投放一些新的 Google Ads 来展示她最新的项链设计。她想起了一位批评者发布的视频,讨论了如何以道德且有效的方式将 AI 用于营销。遵循这一建议,她设置的广告既有帮助又诚实,这进一步建立了客户对她的信任。她不是在瞎猜,而是利用专家的智慧来改善业务。这是影响力在现实世界中运作的完美范例。这与追星无关,而是关于利用最佳建议为自己的生活和事业获取最佳结果。下午,Maria 阅读了一则关于权力掮客正在讨论数据安全新规则的简短更新。她没有感到担忧,而是感到心中有数。她知道这些领导者正在努力保护她的店铺和客户。她觉得自己是更大故事的一部分,每个人都在互相照应。她结束了一天的工作,感到充满力量,并对店铺的未来感到兴奋。这就是 AI 影响力的实际意义。它不是抽象的评论,而是让 Maria 有更多时间去发挥创意,并对她用来实现梦想的工具更有信心。这就是我们新科技世界的明亮一面。 当我们享受所有这些美妙的新工具时,对幕后运作方式产生一些友好的疑问是很自然的。我们可能会好奇,当涉及如此多不同的声音时,重大决策是如何做出的。思考如何确保小型创作者有机会与知名人士一同展示作品也很有趣。我们好奇数据如何得到保护,以及这些大型系统消耗的能源如何最小化以帮助地球。这些不是阴暗或可怕的想法,而是因为我们关心社区而提出的探究性问题。这都是在一个日益向好的世界中,成为一名聪明且积极参与的用户的一部分。给高级用户的极客细节对于那些喜欢深入挖掘细节的人来说,这些人物的影响力在工作流集成方式中非常明显。我们正看到推动 API 变得更加易用和稳健的巨大力量。这意味着你无需在十个不同的应用程序之间切换,你的工具可以以无缝方式相互对话。构建者正专注于让这些连接尽可能顺畅。他们也在努力以更优雅的方式处理 API 限制,确保你的业务永远不会掉链子。这种对 AI 底层架构的关注,正是让炫酷功能对其他人发挥作用的关键。另一个令人兴奋的领域是针对某些 AI 任务向本地存储的迁移。这是构建者和批评者之间的热门话题。通过将部分处理保留在自己的设备上,你可以获得更快的响应速度和额外的隐私保护。这对每个人来说都是双赢。我们还看到模型训练方式及其使用的数据类型变得更加透明。这是权力掮客影响力带来的直接结果,他们希望确保一切都按规矩办事。这使得整个系统更加可靠,在出现意外时也更容易排查故障。你可能最近收到了一次更新,让你的常用工具变得更快,这都要归功于这些技术改进。 你有什么想让我们报道的AI故事、工具、趋势或问题吗? 向我们提交你的文章想法 — 我们很乐意听取。

  • ||||

    讨厌哲学?AI 的实用主义生存指南

    实用主义的选择大多数人把人工智能的哲学讨论看作是“机器人是否有灵魂”的辩论。这其实是个误区,既浪费时间又掩盖了真正的风险。在专业领域,这项技术的哲学本质上是关于责任归属、准确性以及人力成本的讨论。它关乎当模型犯错导致公司损失数百万美元时,谁该负责;也关乎创意工作者是否拥有他们耗费数十年打磨出的风格。我们已经告别了“机器是否会思考”的时代,现在进入了“我们该多大程度上信任机器代我们行事”的时代。行业近期已从只会讲笑话的聊天机器人,转向能预订航班、编写代码的智能体(agents)。这种转变迫使我们直面信任的机制,而非意识的神秘。如果你讨厌哲学,那就把它看作一系列合同谈判。你正在为一种从不睡觉但经常“幻觉”的新型员工设定条款。目标是构建一个框架,让速度带来的收益不至于被系统全面崩溃的风险所抵消。 机器逻辑的运作机制要理解行业现状,你必须忽略那些营销术语。大语言模型(Large Language Model)不是大脑,它是一个庞大的人类语言统计地图。当你输入提示词(prompt)时,系统并没有在思考你的问题,而是在根据数万亿个示例计算哪个词最可能出现在上一个词之后。这就是为什么这些系统擅长写诗却不擅长基础数学的原因。它们理解人们谈论数字的模式,却不理解数字本身的逻辑。对于在商业环境中使用这些工具的人来说,这种区别至关重要。如果你把输出结果当作事实记录,那你就是在错误地使用工具。它是一个创意合成器,而不是数据库。这种困惑通常源于模型模仿人类共情的能力——它们听起来可能很友善、沮丧或乐于助人,但这些都只是语言上的镜像,反映了它们训练数据中的语调。最近的转变在于将这些模型与现实世界的数据“接地”(grounding)。公司不再让模型猜测答案,而是将其连接到内部文件,这减少了模型胡编乱造的可能性,也改变了对话的赌注。我们不再问模型“知道什么”,而是问模型“如何获取我们已知的信息”。这是从生成式艺术到功能性工具的转变。这里的哲学很简单:这就像是讲故事的人与档案管理员的区别。大多数用户想要的是管理员,但技术最初被构建为讲故事的人。调和这两种身份是当今开发者面临的主要挑战。你必须决定自己想要的是创意工具还是精准工具,因为目前很难同时将两者发挥到极致。 全球赌注与国家利益这些选择的影响不限于个别办公室。各国政府已将这些模型的开发视为国家安全问题。在美国,行政命令聚焦于最强大系统的安全保障;在欧洲,AI Act 建立了按风险分类的法律框架。这导致加州的开发者哲学可能会影响柏林产品的合法性。我们正处于一个碎片化的世界,不同地区对机器应被允许做什么有着截然不同的看法。一些国家视其为不惜一切代价提升经济产出的手段,另一些则将其视为对社会结构和劳动力市场的威胁。这为每个市场创造了一套独立的规则,使得小公司更难与拥有庞大法律团队的巨头竞争。该技术的全球供应链也是紧张点。运行这些模型所需的硬件掌握在少数人手中,这在设计芯片的国家、制造芯片的国家以及提供数据的国家之间创造了新的权力动态。对于普通用户来说,这意味着你依赖的工具可能受到贸易战或出口管制的制约。AI 的哲学现在与主权哲学紧密相连。如果一个国家在医疗或法律体系上依赖外国模型,它就失去了对自身基础设施的一定控制权。这就是为什么我们看到对本地模型和主权云(sovereign clouds)的需求激增。目标是确保治理国家的逻辑不被地球另一端的公司所掌控。这才是辩论中常被科幻场景掩盖的务实一面。 与合成智能共度的早晨想象一下营销经理 Sarah 的典型一天。她早上先让助手总结几十封邮件,助手几秒钟就完成了,但 Sarah 必须检查它是否遗漏了关于预算削减的关键细节。随后,她使用生成式工具为新活动创建图像,为了让图像里的人不长出六根手指,她花了整整一小时调整提示词。下午,她用代码助手修复了公司网站的一个漏洞,尽管她自己根本不会写代码。她本质上是一位数字管弦乐队的指挥,虽然不亲自做体力活,但要对最终表现负责。这就是工作的新现实:比起从零开始的创作,它更多是关于编辑和验证。Sarah 的效率更高了,但也更累了。不断检查机器错误所带来的心理负担,与亲力亲为完全不同 BotNews.today 使用人工智能工具进行内容研究、撰写、编辑和翻译。 我们的团队审查并监督整个过程,以确保信息有用、清晰和可靠。。Sarah 所在公司的激励机制也变了。他们不再雇佣初级写手,而是雇佣一名资深编辑,利用三个不同的模型来产出同等数量的内容。这在短期内节省了成本,却造成了长期问题:如果没人做初级工作,下一代资深编辑从哪里来?这是效率逻辑的后果。我们在优化当下的同时,可能正在掏空未来。对于创作者来说,赌注更高。音乐家和插画师发现自己的作品被用来训练那些正与他们争夺工作的模型。这不仅是市场的变化,更是我们对人类努力价值的重新定义。我们必须反思:如果结果比过程更重要,当过程被隐藏在“黑箱”中时,我们的文化会变成什么样?公司领导者必须决定是看重速度还是原创思想。员工必须学会将审计机器输出作为核心技能。立法者必须在创新需求与劳动力保护之间取得平衡。创作者必须找到证明作品是人类创作的方法以维持其价值。教育者必须重新思考当答案触手可及,该如何评估学生。 自动化的隐形成本我们常谈论这项技术的好处,却忽略了账单。第一个成本是隐私。为了让模型更有用,我们不得不提供更多数据。我们被鼓励将个人日程、私人笔记和公司机密喂给系统以获得更好的结果。但这些数据去了哪里?大多数公司声称不使用客户数据来训练模型,但互联网的历史告诉我们,政策随时会变。一旦数据进入系统,几乎不可能撤回。这是用隐私换取便利的永久性交易。我们还看到了能源消耗的巨大增长。训练一个大型模型所需的电力足以供数千个家庭使用一年。随着系统变得更复杂,环境成本只会增加。我们必须扪心自问:生成一张搞笑猫咪图是否值得其产生的碳足迹?另一个成本是真相。随着生成逼真文本和图像变得越来越容易,证据的价值正在下降。如果一切都能伪造,那么什么都无法证明。这已经影响了我们的政治体系和法律法院。我们正进入一个默认屏幕所见皆为谎言的时代,这造成了高度的社会摩擦,使人们更难在基本事实达成共识。这里的 AI 哲学关乎共享现实的侵蚀。如果每个人看到的都是被算法过滤和篡改的世界版本,我们就失去了跨越分歧进行有效沟通的能力。我们正在用稳定的社会基础,换取更个性化、更具娱乐性的体验。每当我们不假思索地使用这些工具时,我们都在做出这种选择。 你有什么想让我们报道的AI故事、工具、趋势或问题吗? 向我们提交你的文章想法 — 我们很乐意听取。 技术限制与本地系统对于高级用户来说,讨论的不仅仅是伦理,还有软硬件的极限。最大的障碍之一是上下文窗口(context window),即模型在活跃内存中一次能容纳的信息量。虽然窗口在不断扩大,但仍有限制。如果你给模型喂一本千页书,等到读到结尾时,它可能已经开始忘记开头了,这会导致长项目中的不一致。此外还有 API 限制和延迟问题。如果你的业务依赖第三方模型,你就受制于对方的正常运行时间和定价。服务条款的突然变更可能会破坏你的整个工作流。这就是为什么许多高级用户正转向本地存储和本地执行。他们在自己的硬件上运行较小的模型,以保持控制力和速度。工作流集成是下一个大挑战。在网站上放个聊天框是不够的,真正的价值在于将这些模型与电子表格、数据库和项目管理软件等现有工具连接起来。这需要深入理解如何结构化数据,以便模型能读懂。我们正在见证 RAG(检索增强生成)的兴起。这是一种模型在回答前先从可信来源查找特定信息的方法,它架起了模型统计特性与用户事实需求之间的桥梁。然而,这增加了系统的复杂性,你必须同时管理搜索引擎、数据库和模型。这是一个高维护的解决方案,需要特定的技能才能有效管理。量化(Quantization)通过降低权重精度,让大型模型能在消费级硬件上运行。随着 RAG 提供更好的事实准确性,微调(Fine-tuning)正变得不那么流行。分词(Tokenization)仍然是一个隐形成本,可能使某些语言的处理成本高于其他语言。本地执行是确保企业敏感数据 100% 隐私的唯一途径。模型蒸馏(Model distillation)正在为移动端创建更小、更快的巨型模型版本。 务实的未来之路AI 的哲学不是工作的干扰,它就是工作本身。每次你选择一个模型,你都在选择什么样的逻辑来主导你的生活。你是在决定哪些风险可以接受,哪些成本太高。技术变化很快,但人类的需求始终如一。我们需要的是让我们变得更好的工具,而不是取代我们的工具;我们需要的是透明的系统,而不是在暗箱中运作的系统。围绕这个主题的困惑往往是有意为之的——公司卖一个“魔法盒”比卖一个复杂的统计工具更容易。剥离浮华,聚焦激励机制,你就能看清技术的真面目。它是一个强大、有缺陷且深刻的人类创造物,反映了我们最好的想法和最坏的习惯。目标是睁大眼睛使用它,理解你在每次交互中所做的权衡。你可以通过了解机器学习的最新趋势来保持领先。若想深入了解这些系统的伦理,斯坦福大学以人为本人工智能研究院和 MIT 科技评论提供了极佳的数据。你也可以在 纽约时报 的科技版块追踪法律变更。 编者按:我们创建本网站,旨在作为一个多语言人工智能新闻和指南中心,为那些并非电脑极客,但仍然希望了解人工智能、更有信心地使用它并关注正在到来的未来的人群服务。 发现错误或需要更正的地方?告诉我们。