钛媒体数据显示,自2022年11月30日ChatGPT发布以来至2024年7月29日◆◆■◆,国内新注册成立■◆★◆★、现在却处于注销吊销或停业异常状态的AI相关公司达78612家◆■。
早期AI企业往往面临两难选择◆★■◆■★。一方面,数据是训练算法★■◆◆■、优化模型的命脉■★,没有足够的数据支持,技术突破几乎无从谈起★■◆■◆★;另一方面,数据治理的双重危机正从被动和主动两个维度撕裂企业防线,用户隐私泄露的风险如同悬在企业头顶的“达摩克利斯之剑”。
2024年12月★◆,通用汽车宣布将停止对Cruise的Robotaxi业务投资,转而将Cruise的技术整合到通用汽车的辅助驾驶系统SuperCruise中,以推动个人车辆的自动驾驶发展。转变的背后正是过高的成本以及商业化进展过慢的挑战。
美国数据湖独角兽平台Databricks在2024年完成了100亿美元的融资。OpenAI在2024年10月完成了66亿美元的融资,估值达到1570亿美元。在国内的AIGC行业,创业邦睿兽分析的数据显示★◆■■■◆,2024年第三季度发生融资事件84起◆★◆★■,已披露融资金额为105.4亿元,已披露融资规模以2亿—5亿元区间居多■◆,单笔平均融资额为2.6亿元。
因此,我国需要建立分层支持体系,在保障头部企业国际竞争力的同时,又能通过专项基金、技术开源等方式为中小企业保留创新火种■■◆★★◆,以实现产业的可持续发展。
另一方面■◆★■★,在IPO市场面临周期性挑战的背景下◆★★◆★◆,创业投资退出通道缩窄,初创企业可能因此陷入资源匮乏的困境,从而抑制技术路线发展的多样性。
但AI商业化同样正经历着◆■“冰与火”的淬炼。一边是资本狂热追逐、万亿估值狂欢;一边是头部企业虹吸效应加剧、数据隐私争议不断。技术突破的加速度与伦理治理的滞后性,构成了数字经济时代最危险的剪刀差★★◆■。
当技术触碰人性底线时,任何算法优化都不能凌驾于生命价值之上,AI系统在道德责任界定、内容安全机制等方面的伦理规范是所有企业必须思考的课题。
然而,AI系统的运行依赖海量数据,数据在收集、存储、使用和共享的过程中涉及诸多伦理问题,如数据隐私保护★◆★◆◆、数据偏见★◆◆■、算法歧视等★■◆★★■。只有在数据伦理得到充分保障的前提下,AI技术才能真正实现其应有的社会价值和商业潜力。
据英国《每日电讯报》当地时间6月7日报道,美国佛罗里达14岁少年的母亲正起诉谷歌公司和由两名前谷歌员工创办的Character◆■.AI★◆,指控其开发的AI聊天机器人导致她14岁的儿子自杀★◆。
美国非营利性在线新闻网站ProPublica的报道显示,作为一款预测罪犯可能会成为再犯的风险评估软件,COMPAS的算法存在偏见★◆■,黑人更有可能被误判,白人更有可能被漏判,尽管被预测为低风险◆◆◆,但该部分白人依然继续犯罪◆★★★◆■。
在制造业,不同产线因光照条件■■★★◆、传送带速度等差异也可能导致模型失效◆■◆■★★。这些非标特性提升了AI的开发成本,一些领先企业正不断提升模型的通用性和适应性◆★■◆★。
长江商学院滕斌圣教授、曹欣蓓研究员在近期发表的署名文章中指出,在数据要素投入边际产出递减的今天■◆★★★■,唯有通过技术开源打破企业边界,以伦理共治校准价值坐标,用场景深耕替代概念炒作,方能在这场持久战中实现效率革命与社会价值的共振。
智能客服系统是AI早期应用的典型案例。通过自然语言处理技术,AI能够同时处理各类客户咨询。
在追求技术突破和商业化的道路上★◆★◆★,众多企业面临巨大挑战。举例而言,在国内大模型领域,智谱AI、月之暗面、百川智能的估值均超过200亿元。其中,月之暗面在2024年2月凭借单轮超10亿美元的融资刷新行业纪录,资本加速向头部聚拢■★★◆★。
AI早期的商业化应用主要集中在一些特定的垂直领域,通过自动化■◆◆、智能化和数据驱动等技术手段,提升行业效率。
从认知层面看,数字素养教育需要被纳入公民基础教育体系◆★■,建立技术局限性认知,养成信息溯源性验证、多源数据对比等底层逻辑,培养■★■◆◆■“怀疑—求证—研判◆★■”的思维范式。针对某些特定专业场景,通过引入人工复核制度■★,在能释放AI效能红利的同时,又能构筑风险防火墙,促进AI技术健康◆★■★◆、可持续发展,从而实现技术可靠性与商业可行性的共振◆◆★■◆◆。
AI大模型研发的背后是规模定律★★◆◆★,DeepSeek的突围则揭示了在数据要素投入的边际产出下降时◆■◆,依然可以通过创新重构生产函数。
在主动层面,据人工智能数据安全公司Cyberhaven的监测,2024年企业员工在AI工具上传敏感数据的频次激增485%◆■■◆★,每10万名员工向机器人发送数据超过200万次。
政府和监管机构应发挥主导作用■◆,制定并完善针对AI技术的伦理法规和行业标准★◆■◆■■。由于不同国家和地区的法律规定存在差异,企业要想在全球范围内合规运营,也需要综合了解,建立伦理影响前置评估机制◆◆★,在技术研发初期就引入多元利益相关方参与价值的对齐和校准。
从更宏观的角度看★■◆◆,这需要建立技术开发者★◆■、法律学者与公众的共治网络,实现创新加速度与伦理底线的动态平衡。
最后,AI使用者在使用AI提升效率的同时,也要警惕AI幻觉,即AI系统生成看似合理但实际虚假或误导性的信息,普通用户往往难以辨别其真实性。这种现象不仅会误导用户决策■■◆,还可能引发信任危机★◆★。
在被动层面,AI模型的训练高度依赖海量数据★■,但合法获取高质量数据的成本居高不下,该矛盾催生了行业乱象。部分初创企业为快速起量◆◆,不惜通过隐蔽条款、数据爬虫,甚至是灰色交易等非常规手段获取数据。
在制造业,特斯拉的“黑灯工厂★◆”也是AI应用的代表。工厂内■★★◆,AI驱动的机器人承担了电池组装、车身焊接等复杂任务。同时,特斯拉利用计算机视觉实时监测生产流程,快速检测并纠正缺陷。此外★★■◆◆◆,通过AI进行预测性维护,设备故障得以提前预防■★,减少了停机时间★◆◆■◆。
此外■◆◆★,教育机构也需要强化对学生和从业者的伦理教育,培养其对技术伦理问题的敏锐洞察力和正确价值观。
DeepSeek的开源生态还吸引了大量开发者和企业的参与,当参与规模达到一定程度时◆■★,会形成强大的技术力量和社区影响力。DeepSeek通过开源吸引全球开发者基于其技术进行创新,使其技术路径成为行业标杆,同时通过降低技术门槛,还能激发长尾创新。
1956年夏天,在美国汉诺斯小镇达特茅斯学院的一次会议上,人工智能(AI)的概念被正式提出。彼时,由于计算能力和数据规模的限制,AI的商业化进展缓慢。直到21世纪,随着深度学习技术的突破和大数据时代的到来◆■,AI才真正进入商业化应用的快车道。
这给行业带来的启示是:在AI快速发展的背景下,效率革命并非一蹴而就■◆◆★◆★,而是一场需要持续投入和创新的持久战■■■◆。企业需要不断探索如何在有限的资源下实现技术的最大化利用■■,同时寻找与商业需求的深度融合点。
这种看似贴心的服务模式,实则构建起了固化的信息闭环,公共讨论的理性空间不仅遭到侵蚀,社会整体的价值光谱也将趋于单一化。
马太效应的深化正在重塑行业生态■■★■★◆。一方面,头部阵营通过技术代差构筑护城河■★;
与此同时★■★◆,随着AI技术的发展■◆◆■■◆,生成能力、泛化能力和自然交互能力得到显著提升,使其能够更好地适应不同工业场景的需求。这些技术进展正在逐步缓解场景碎片化带来的挑战,为AI的规模化落地开辟了新路径。
据中国工业互联网研究院数据★★◆★◆,2024年◆◆,字节火山引擎、阿里云★◆★、百度云等头部厂商主动打破成本困局,掀起大模型价格战◆■■◆,降价幅度普遍达到90%以上。
AI技术以效率工具的身份切入市场,通过自动化流程与数据分析实现商业突破◆■◆,但这背后是高昂的成本。
但AI商业化的道路并非一片坦途★■★◆◆,技术、商业以及社会伦理的多重博弈,始终贯穿AI的发展。在商业化尚未落地之时,企业仍面临重重挑战◆★■。
这背后暴露出AI行业正面临创新陷阱:技术突破的加速度与伦理治理的滞后性,构成了数字经济时代最危险的剪刀差。
但效率神话背后是残酷的行业生态。一方面,场景碎片化成为AI技术从实验室走向规模化落地的阻碍。
创新范式也在加速商业应用的落地★■■。华山医院就在不同平台部署测试DeepSeek70B和满血版大模型。瑞金医院联合华为发布国内首个病理大模型■■◆★◆“瑞智病理★■◆”◆★★,实现病理切片自动化分析,日均处理量达3000张,印证了垂直场景的规模化落地潜力◆◆。
效率革命导致资本市场的融资蜂拥而至■◆◆★■,投资人不断押注★■★■■“改变人类文明”的叙事溢价。
当科技狂奔撞上道德边界,企业该如何平衡创新与责任?头部“通吃◆◆◆”格局中◆★◆,中小企业又该如何突围★★◆■?
此外,开源生态带来的技术扩散有望突破企业边界,形成跨行业的协同创新网络★★★■◆,从而产生正向外部性★■◆。
当人工智能公司DeepMind未经明确授权处理160万患者医疗数据引发诉讼(尽管伦敦法院驳回了该案);当2024年1月,意大利数据保护局指出ChatGPT数据收集技术违反该国隐私法,对于AI企业而言,如何在创新与隐私保护之间找到平衡◆◆◆◆,是企业实现长远发展的重要课题★■★◆■■。
这种高浓度的资源倾斜,使得头部企业凭借资金、人才与技术三重优势,形成“融资—研发—市场”的正循环。中小企业则在资本获取■★◆★■◆、技术突破及行业认证等环节面临系统性困境。
在AI技术迅猛发展的浪潮中,数据成为驱动创新的核心资源。随着数据价值的凸显◆★■★◆■,数据隐私问题也逐渐浮出水面。
看似惨烈的价格博弈,实则是生态培育的战略举措◆◆★★:通过价格杠杆撬动市场需求,短期让利换取长期地位■★★◆★■,以促进大模型应用的快速落地和生态繁荣。
技术失控的风险不仅存在于司法领域,更会渗透到社会生活的方方面面。基于用户行为数据的个性化推荐系统,正在制造数字化时代的◆★◆“认知茧房”。
中国 本 土 研 发 的 大 模 型DeepSeek-R1则证明了另一种有效路径★◆,通过■★★◆◆“算法创新+有限算力■◆”,实现了性能比肩OpenAIo1正式版的同时,又将成本压缩至前者的数十分之一。
此外,场景的碎片化不仅源于技术问题◆◆■■■,还与行业标准不统一、数据存在孤岛现象等密切相关★★,这需要建立开放的技术生态★◆◆,推动数据的标准化和数据共享,同时鼓励设备制造商、软件开发商和终端用户之间的深度合作★★。
当算法捕捉到用户对某类题材的兴趣,会启动自我强化的推荐循环,如连续选择悬疑剧会触发更多同类推送■◆★★◆,观看历史剧则导向相似内容的推荐。
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点■◆,不代表澎湃新闻的观点或立场◆★★■◆,澎湃新闻仅提供信息发布平台◆■■■◆。申请澎湃号请用电脑访问。
只有多方协同合作、防范技术失控带来的风险,AI技术才能在伦理的轨道上稳健发展。