AI中的数据印象 | 2024年06月20日 阅读模式

AI中的数据印象

AI技术本质上是数据处理技术,AI使用的手段是数学,使用的工具是大规模分布式高性能计算机机群。具体来说,AI利用计算机的算力,通过数学方法解释每个数据编码的内涵,并找出这些内涵之间的相关性,从而给请求者提供答案。这些答案可以是文字、语音、视频或图片。简而言之,AI能够理解人类编写数据的内涵,并根据人们提出的问题逻辑内容的顺序给出相应的答案。

AI给出的答案取决于它所能使用的数据,包括网络积存的数据量和数据质量。如果数据量不足,AI就像一个知识不渊博的老师,无法给出完美答案,也无法解答复杂问题。数据质量包括优质数据和低质数据。优质数据是指现存数据中那些具有真理性、科学性,并在理工设备和客观存在中出现或被使用过的数据。相反,无实质内容的形容词、客观不存在的谎言以及被多次涂改的模糊数据等都是低质量的数据。换个角度来说,AI是智能,智能是理解自然和客观存在的能力,而不是凭空制造谎言的能力。AI是对现存数据进行智力编辑和答案输出,因此数据的科学性、真理性和客观性决定了AI智能的高低。

在数据世界里,AI像海市蜃楼一样对应映射真实世界。同时AI根据外部请求驱动数据,将数据合成为满足请求条件的映像答案给请求者。在数据世界中,AI会为每个使用数据的主体对应生成一个相关性数据的数集,并以此数集刻画出每个独立的数据个体,数据个体的特质、偏好和潜在需求等信息都被包含在AI所逻辑出的数域中。因此,在未来的AI与人类对话中,同一个问题的请求,不同的请求者将得到不同的答案。这就像人类在谈论同一个话题时,当面对的对象不同,使用语言、语气、内容和措辞都不相同。

AI根据数据的相关性形成数据个体,类似于人类对他人或事物产生的印象。这些印象的好坏会影响AI给出的结果,进而直接影响人类借助AI获得的商业收益。AI使用的数据不仅限于人类开发的如图片、文字等任何格式数据,还包括物理数据,例如某个物理位置上经常产生的数据和数据检索。简单来说,人类使用互联网数据的行为,如数据检索、内容阅览、阅读时间等心理行为,都会被采用形成到对应的个体数集中,这些个体数据构成了AI对个人的印象。因此,不同的人将从AI输出的结果中得到不同的答案和结果。

AI通过分析人类行为来判断人类的潜在目的。因此,数据的真实性、真理性和逻辑性是人类在AI给出的数据个体中获得良好印象的基础。在AI中形成良好印象可以为个人和企业带来收益!


欧盟批准世界首部《人工智能法案》

2024-05-23   来源: 参考消息

据日本《朝日新闻》5月22日报道,欧盟理事会21日批准《人工智能法案》,是世界上首部对人工智能(AI)进行全面监管的法案。欧盟理事会由成员国部长级官员等人组成。日本等许多国家正探寻制定人工智能规则,欧盟新规则今后可能成为“世界标准”。

报道称,打造《人工智能法案》的目的在于,在维护民主、人权和法治的同时,推动普及值得信赖的人工智能。根据使用方法而非技术本身造成的影响风险进行分类。

风险分为四类,风险等级越高,管控越严格。例如,风险最高的情况包括:为唆使犯罪而利用人工智能技术操纵人的潜意识;使用高级监控摄像机等,将人脸识别等生物识别技术实时应用于犯罪搜查等。这些情况是被“禁止”的。

第二高风险的情况包括:基于犯罪心理画像的犯罪预测、在入学考试和录用考试测评中应用人工智能。人类有义务保存和管理使用人工智能技术的历史记录。

不过,巴黎奥运会等反恐用途被排除在一系列风险分类对象之外,旨在兼顾安全保障和个人权利的平衡。

关于取得显著进展的生成式人工智能将另行作出规定,开发者有义务遵守版权、公开用于开发的学习数据等。

根据《人工智能法案》规定,如果涉足“禁止”领域,则被处以3500万欧元或全球年销售总额7%的罚款,以二者之中的更高金额为准进行处罚。如果没有履行除“禁止”以外的其他风险分类中的义务,则根据业务规模等处以1500万欧元或最高不超过全球年销售总额3%的罚款。

《人工智能法案》规定“适用于区域外”,影响或将波及其他地区。日本一桥大学情报学教授生贝直人解释道:“由于法案广泛适用于域外,在欧洲开展业务的各国企业都将不得不遵守《人工智能法案》。”

欧盟的目标是,在2026年内全面施行《人工智能法案》。不过,风险级别最高的“禁止”条款预计率先于2024年底启动适用。