——AI安全吗?
每当市场低迷时,AI板块就会出来活跃一番,有的确实调整了,有的还高高在上。
如果只是单纯以价格的高低来看等待这些公司,就比较粗浅了。AI板块一直活跃的本质是,这个行业发展的太快了,快的以致于人们开始担心人工智能的安全问题。从另一方面来说,正因为发展的太快了,不少公司处在历史周期的剧变中,需求的扩张甚至超出想像。
当地时间周三,ChatGPT 的开发者 OpenAI 表示计划投入更多资源并成立新的研究团队,研究如何确保 AI 对人类的安全性,最终实现用 AI 来监督 AI。
OpenAI 联合创始人伊利亚・苏茨凯弗(Ilya Sutskever)和 AI 对齐负责人简・莱克(Jan Leike)在官方博客中表示:“超级智能的巨大能力可能导致人类失去力量甚至灭绝。目前,我们还没有解决方案来操纵或控制一个可能的超智能 AI,并防止其变成无赖。”
超智能 AI,即相比于人类更智能的系统,可能会在未来 10 年中出现。人类需要比目前更强大的技术来控制超智能 AI,因此需要在“AI 对齐研究”方面取得突破,确保AI 对人类持续有益。AI 对齐是 AI 控制中的主要问题,即要求 AI 的目标和人类的价值观与意图保持一致。
OpenAI 将在未来 4 年内,将算力的 20% 专门用于解决这方面问题。此外,该公司将组建新的“超对齐”团队来组织这方面的工作。该团队的目标是开发达到“人类水平”,由 AI 驱动的对齐研究员,随后通过庞大的算力推动其发展。这意味着将使用人工反馈来训练 AI 系统,通过训练 AI 系统来协助人工评估,最终训练 AI 系统来进行实际的对齐研究。
人工智能安全的倡导者康纳・莱希表示,OpenAI 的计划存在根本性缺陷,因为最初的人类水平 AI 可能会失控并造成严重破坏,而这将迫使研究者去解决 AI 安全问题。他表示:“在构建人类水平的智能之前,必须先解决对齐问题,否则默认情况下你无法控制它。我个人认为这不是个特别好的、安全的计划。”
AI 的潜在危险一直是 AI 研究员和公众最关心的问题。今年 4 月,一群 AI 行业领袖和专家签署公开信,呼吁暂停 6 个月开发比 OpenAI 的 GPT-4 更强大的系统,原因是对社会存在潜在风险。今年 5 月的调查发现,超过 2/3 的美国人担心 AI 可能产生的负面影响,61% 的人认为 AI 可能威胁人类文明。
虽然国内还没有这方面的报道,也说明行业还在大步流星的追赶中,但以后肯定会这方面的讨论和动向。
公司学:
科大国创(
300520)人工智能+聊天
机器人 +
5G+
区块链 $科大国创(sz300520)$公司自主研发了九章AI平台,具有科大国创聊天机器人系统。在
智能汽车 领域重点聚焦智能BMS系列产品及动力电源总成系统的研发;正在大力推广国创区块链BaaS平台在国内相关场景应用。主营业务主要产品是电信运营支撑系统软件、金融资产管理软件、
大数据应用平台案、互联网+智慧物流云服务平台、
新能源汽车电池管理系统。
公司持有国仪量子的股权,后者是以量子精密测量为核心技术,为全球范围内企业、政府、研究机构提供以增强型量子
传感器为代表的核心关键器件、用于分析测试的科学仪器装备、赋能行业应用的核心技术解决方案等产品和服务。扫描电子显微镜、量子钻石单自族谱仪、金刚石量子计算教学机等仪器装备已进行市场化推广及应用。
《量化
数据观察 》捉妖系统测算,中短资金成本在22元,34元以下套牢盘充分换手。
捉妖系统量化分析资金流的波动成本,公开发布的数据观察只是一个参考,多一个角度了解公司而已。能否学到有价值的信息,在于您对文章内容的认知。
声明:本文中涉及的所有公司信息均为公开量化数据观察,内容仅供学使用,不构成任何投资建议。
本文为“真妖刀2008”独家原创,请尊重版权切勿转载。