8 月 26
Luke FanAIGC AI伦理, AI发展路线, AI安全, AI工具论, AI权利, AI立法, AI行业动态, Copilot, DeepMind, Grok, OpenAI, PI.AI, SCAI (看起来有意识的AI), YouTube, 人工智能意识, 人工智能风险, 人机关系, 人格化AI, 创业故事, 博客分析, 哲学思辨, 商业模式, 幸存者偏差, 微软 (Microsoft), 情感AI, 情感依恋, 意识定义, 用户留存, 科技巨头竞争, 科技评论, 穆斯塔法·萨勒曼 (Mustafa Suleyman), 老范讲故事, 萨提亚·纳德拉, 谷歌 (Google)
微软AI负责人提出,要警惕看起来好像有意识的AI。AI真的会有意识吗?
大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲,微软AI负责人的官方博客。
微软呢,有一位执行副总裁兼微软AI CEO,他的名字呢叫穆斯塔法·萨勒曼。这个名字听起来稍微有点怪,待会咱们再去介绍他具体是谁。他呢,直接向微软CEO萨提亚·纳德拉汇报。8月19号,这位穆斯塔法·萨勒曼在微软官方博客上发文说:“我们必须为人构建AI,而不是构建一个人。”是这样的一个标题。
博客的内容总结一下吧。首先呢,提了一个概念叫SCAI,叫“看起来有意识的AI”,就是这个东西并没有意识。而且他也否认AI可以产生意识,说从现在的很多证据都可以证明,AI以后也是不会产生意识的。但是呢,它看起来好像有意识一样。
More
10 月 22
Luke FanAIGC, 字节跳动,故事多 AIGC可信度, AI协作, AI可信性, AI大模型, AI安全, AI工程风险, AI技术挑战, AI系统, ByteDance, Huggingface平台, Huggingface漏洞, IT业界新闻, IT内鬼, IT安全, IT安全策略, IT工程, IT灾难恢复, PyTorch修改, Pytorch集群, 人员管理挑战, 人工智能实习生, 人工智能未来, 人工智能治理, 人工智能管理, 人工智能风险, 人机协作, 代码安全, 代码漏洞, 代码管理, 代码隐患, 企业损失, 企业数据, 企业风险管理, 信任危机, 前沿科技, 大数据安全, 大模型开发, 安全事件, 安全漏洞, 安全管理, 安全评估, 实习事故, 实习生, 实习生影响, 实习生投毒, 工程信任, 工程漏洞, 工程管理, 开发者风险, 开源开放, 开源系统, 恶意代码, 技术创新, 技术应用, 技术治理, 投毒事件, 操作风险, 故障排除, 数千万美元, 数字化管理, 数字时代, 数据保密, 数据分析, 数据攻击, 数据污染, 数据泄露, 数据隐患, 未来合作挑战, 模型参数扰动, 渗透测试, 现代技术治理, 系统攻击, 系统漏洞, 系统脆弱性, 网络安全, 训练模型, 黑客攻击, 黑客风险
ByteDance的AI大模型被他们自己家的实习生投毒。这是一个什么故事?大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲这起投毒事件。不是说举个小药瓶去投毒,而是恶意代码投毒。
事情发生在6月份,一位姓田的博士生在ByteDance实习。因为某些待遇或者资源分配问题,他对ByteDance感觉不满,于是就在代码里面进行了投毒。投毒的方式是他自己进行了一些代码维护,但这些代码是安全的,主要是一些调试用的代码。这些代码去读取一些上传文件之后,就具备了攻击性。
什么意思呢?就是我们去训练大模型的时候,需要把大量的信息数据上传到大模型进行训练。他的这种调试代码上传到服务器上以后,这个时候还是安全的,然后把一些恶意代码隐藏在训练数据里边。他把这些数据读出来以后,就对整个ByteDance的一些训练集群进行了攻击。这其实是黑客普遍采用的一些手段。
More