9 月 02
Luke FanAIGC, Musk传奇 AI人才战, AI工程师, Grok, OpenAI, XAI, 中美科技战, 代码安全, 代码盗窃, 华人工程师, 商业间谍, 小鹏汽车, 工程师文化, 技术泄密, 法律诉讼, 特斯拉, 知识产权, 硅谷挖人, 离职跳槽, 窃取商业机密, 自动驾驶, 访问日志, 谷歌, 马斯克
有一位从XAI离职、准备投奔OpenAI的中国工程师,被马斯克起诉了,说他盗取了XAI的机密。
大家好,欢迎收听老范讲故事的YouTube频道,今天咱们来讲一讲这位被XAI起诉的中国小伙子。
他呢,是快速地卖掉了XAI的股票,从XAI离职准备加入OpenAI,但是就是在这样的一个时间点里,他大量地下载了XAI的代码,压缩、改名、上传并且删除了日志。因为他下载代码的时候是有日志的,他把这个日志还删了,做了一个自作聪明的小动作,这样的事情就被XAI发现了。
XAI找到这小伙子说:“你这样干不对,咱们是不是商量商量?”小伙子呢就当时跟XAI达成了一个和解。和解的方式是什么呢?第一个,还是要给一些赔偿的了;第二个呢,是交出自己个人设备的账号,让XAI的工程师去进行检查。但是呢,XAI后来发现说,他给出的账号并不完整,而且有一些设备的账号呢,已经被修改了密码,无法进行登录了。XAI没有办法,只能把这小伙子给告了。
首先我们要说一下,马斯克为什么着急呢?很多人觉得XAI,你这个产品好像也没有OpenAI做的好,也没有人家用户量多,你还怕被人偷吗?这个事是这样,每一家公司呢,第一个是自己都会有一些不传之秘吧,或者说有一些自己做的更好的地方,这些呢马斯克肯定是不希望让OpenAI知道的。另外一个呢,就是你以为马斯克的代码就都干净吗?如果马斯克的代码里头,也有一些是从OpenAI来的,或者从其他什么地方来的,这些代码如果落到OpenAI手里边的话,是有可能会出现一些别的问题的。所以任何公司都不希望说公司里边的代码,整个让别人拿去检查一下,除非迫不得已,是很少有公司愿意交出自己的代码让别人去检查的。所以马斯克很不乐意,说你要么把代码给我还回来,要不然咱就起诉。这小伙子现在起诉要求也是说,他现在不能到OpenAI去上班,你必须把这事说清楚,要把所有的代码也好,你窃取我的机密也好,都要删干净,再说后面的事情。
More
12 月 03
范, 路OpenSource GitHub, GitLab, Gitlab功能, Gitlab安全, Gitlab开源版本, Gitlab总部, Gitlab数据, Gitlab服务器, Gitlab用户, Gitlab财报, Gitlab部署, Gitlab项目, GTLB, PostgreSQL, VIE企业, VIE架构, 中科星图, 中美制裁, 互联网企业, 交付, 代码传输, 代码发布, 代码安全, 代码审核, 代码版本, 企业代码管理, 低税制国家, 俄罗斯入侵乌克兰, 信创, 信创活动, 内资公司, 内部纠纷, 卫星控制, 合规认证, 团队协作, 国产操作系统, 国产数据库, 国产替代, 国产芯片, 国防特种地理信息系统, 外汇管控, 外资企业, 外资控股, 安全管理, 实体数汇报, 客户敏感信息, 开源版本, 开源软件, 律师, 微软, 敏感信息, 文档管理, 新加坡GitLab, 服务器部署, 本地化服务, 权限管理, 极狐GitLab, 气象生态, 爱尔兰, 版本控制, 用户代码, 监控系统, 研发团队, 程序员, 空间地理信息系统, 红杉基金, 纯内资公司, 纳斯达克上市公司, 美国技术, 美国政府, 联想基金, 航天测绘, 裁员, 认证考核, 财报, 软件工程, 软件开发管理, 违规合作, 间谍案, 集成构建, 韩国, 项目管理
极狐Gitlab间谍案到底是怎么一回事?大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲极狐的故事。事情呢是在11月28号曝光的,曝光人呢就是极狐Gitlab自己家的架构师,名字叫扬州。他呢主要曝光了几件事情。
第一个说公司是有外资背景的,而且外资控股比例超过50%。第一大股东是GitLab新加坡分公司,占股46%。而极狐GitLab呢一直宣传自己是国产软件,还去参加各种信创,也就是国产替代的活动,这肯定是欺诈。这个里边存在叫违规合作的问题,因为极狐接了一个叫中科星图的20万的单子,做了合作。中科星图干嘛的呢?做航天测绘以及卫星控制和运维、空间地理信息系统,包括国防特种地理信息系统,以及一些气象生态这样的业务。在这样的一个情况下,你一个外资公司去跟他合作,这事合适吗?
还有什么呢?中科星图是被美国列到实体名单里的,因为他肯定是做大量军用的东西嘛。你一个美国公司下边的子公司,向中科星图这样的一个被美国放到实体名单里的公司去提供这种技术合适吗?是不是应该受到处罚呢?他做了这样的一个举报。而且举报的时候呢还讲了说,这个Gitlab的后台有一套监控系统,它呢会秘密地搜集客户的敏感信息,包括你有多少个员工、开发了多少个项目、做了多少次编译、做了几次发布,这些呢都会向美国的服务器进行汇报。而且公司的负责人也会每个月或者每个季度向美国总部进行汇报,涉嫌泄密。
More
10 月 22
Luke FanAIGC, 字节跳动,故事多 AIGC可信度, AI协作, AI可信性, AI大模型, AI安全, AI工程风险, AI技术挑战, AI系统, ByteDance, Huggingface平台, Huggingface漏洞, IT业界新闻, IT内鬼, IT安全, IT安全策略, IT工程, IT灾难恢复, PyTorch修改, Pytorch集群, 人员管理挑战, 人工智能实习生, 人工智能未来, 人工智能治理, 人工智能管理, 人工智能风险, 人机协作, 代码安全, 代码漏洞, 代码管理, 代码隐患, 企业损失, 企业数据, 企业风险管理, 信任危机, 前沿科技, 大数据安全, 大模型开发, 安全事件, 安全漏洞, 安全管理, 安全评估, 实习事故, 实习生, 实习生影响, 实习生投毒, 工程信任, 工程漏洞, 工程管理, 开发者风险, 开源开放, 开源系统, 恶意代码, 技术创新, 技术应用, 技术治理, 投毒事件, 操作风险, 故障排除, 数千万美元, 数字化管理, 数字时代, 数据保密, 数据分析, 数据攻击, 数据污染, 数据泄露, 数据隐患, 未来合作挑战, 模型参数扰动, 渗透测试, 现代技术治理, 系统攻击, 系统漏洞, 系统脆弱性, 网络安全, 训练模型, 黑客攻击, 黑客风险
ByteDance的AI大模型被他们自己家的实习生投毒。这是一个什么故事?大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲这起投毒事件。不是说举个小药瓶去投毒,而是恶意代码投毒。
事情发生在6月份,一位姓田的博士生在ByteDance实习。因为某些待遇或者资源分配问题,他对ByteDance感觉不满,于是就在代码里面进行了投毒。投毒的方式是他自己进行了一些代码维护,但这些代码是安全的,主要是一些调试用的代码。这些代码去读取一些上传文件之后,就具备了攻击性。
什么意思呢?就是我们去训练大模型的时候,需要把大量的信息数据上传到大模型进行训练。他的这种调试代码上传到服务器上以后,这个时候还是安全的,然后把一些恶意代码隐藏在训练数据里边。他把这些数据读出来以后,就对整个ByteDance的一些训练集群进行了攻击。这其实是黑客普遍采用的一些手段。
More