中国消费者报报道(记者李燕京)人工智能技术的爆发式发展,正以颠覆性力量重塑消费场景,同时也出现了一系列前所未有的侵权形态。从AI数字人成为虚假营销的“完美傀儡”到算法通过用户画像实施隐蔽的“千人千价”杀熟策略,从企业违规窃取消费者数据训练模型到利用深度解析技术推送诱导性广告,传统消费侵权行为也因技术升级变得更复杂、更隐蔽、更难以追责。
AI数字人成营销“帮凶”
由技术驱动的AI数字人正被别有用心的人所利用。在采访中,有消费者向记者反映:“去年年底,家里的老人在浏览网络卖货视频时,看到了‘张文宏医生’推广一款蛋白棒的内容。老人对此深信不疑,不仅下单购买,还转发到了多个群聊中。我看到了转发,一边让老人退款,一边在各个群里说明老人转发的内容不是真人,是克隆的数字人在行骗。后来,在各视频平台上已无法搜索到该账号,但类似的骗局仍在不断上演。”
据记者了解,去年就有网友利用AI制作刘德华的声音博取流量。刘德华电影公司紧急发布声明,提醒网民不要落入伪造刘德华声音的AI语音合成技术骗局。此外,一些公众人物也未能幸免,其形象、声音被不法分子恶意利用推广商品,不仅损害了公众人物的声誉,还让消费者陷入被骗风险。
北京某科技公司网络反诈骗软件工程师刘乃文介绍说,诈骗分子不仅利用公众人物形象,还将AI数字人包装成“理财专家”“老中医”“情感导师”等形象,欺骗消费者进行消费。目前数字人主播不断细分,出现了专打感情牌的数字人主播,针对进入直播间的老年女性,使用“宝贝姐姐”“每隔几分钟查看你是否在线”等话术诱骗消费者购买劣质商品。这些数字人主播的售价在5000元左右,并配套提供“孤独老人话术库”“健康焦虑脚本”等标准化话术。这些通过算法优化的话术,精准击中老年群体的情感需求,让他们在不知不觉中陷入骗局。
面对日益严峻的AI数字人欺诈问题,相关部门出台了一系列法规进行规范。《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》等法规,对AI数字人和AI生成内容的标识、数据来源等提出了具体要求。今年3月,国家网信办等4部门联合发布《人工智能生成合成内容标识办法》,通过标识提醒用户辨别虚假信息,规范内容制作、传播各环节标识行为,为规范AI生成内容划定红线。
记者在采访中发现,目前,各平台虽已普遍升级AI内容识别系统,要求对AI生成作品进行显著标注,但一些数字主播直播间的标注、提示并不显眼,甚至缺失。
据网信中国微信公众号7月9日发布的消息,中央网信办整治AI技术滥用,第一阶段累计处置违规小程序、应用程序、智能体等AI产品3500余款,清理违法违规信息96万余条,处置账号3700余个。
7月14日,浙江省消费者权益保护委员会发布上半年消费领域投诉热点问题,提醒消费者在选择短视频带货服务时要警惕AI仿冒技术,仔细观察主播的微表情是否自然,声音与口型是否同步,是否出现人物或背景模糊、扭曲等异常画面,对异常低价或反常促销行为应保持警惕,优先选择有“绿色直播间”认证标识的商家;不轻信主播引导至微信、QQ等平台交易的要求,坚持在正规电商平台完成支付。
算法“杀熟”精准收割
在数字经济浪潮的推动下,算法技术深度融入人们生活的方方面面,从个性化推荐到精准营销,本应是为消费者带来便利与高效体验的“得力助手”。然而,算法“杀熟”这一现象却悄然损害着消费者的合法权益。
算法“杀熟”,简单来说,就是经营者借助大数据技术,广泛收集用户的个人数据,再通过算法深度剖析消费习惯、价格敏感度等关键信息,进而对不同用户群体实施个性化定价。这一现象在电商购物、在线旅游、电影平台、网约车服务等众多领域频繁上演,屡见不鲜。
在采访中,多位消费者向记者表示有过被杀熟的经历。消费者李女士在某知名旅游平台预订酒店时,同一时间、同一酒店、同一房型,她手机显示的价格比朋友高出60元。消费者张先生使用某网约车平台时,发现相同的起点和终点,自己的费用比同事高出5元。
记者还了解到,有的电商平台根据用户消费数据,选择性发放优惠券,高消费用户被排除在外。一些平台还利用算法操控后台,依据用户退货记录动态调整售后政策,高频退货用户被扣除高额运费,部分用户的售后通道被自动关闭。
刘乃文介绍说,现在电商的推荐系统和定价算法日益复杂,涉及机器学习和人工智能等前沿技术,其决策过程犹如一个神秘的“黑箱”,难以被外部监管者理解和审查。企业正是利用算法的这一特性,对用户进行差异化定价,而消费者却很难察觉并举证。以电商平台的定价算法为例,消费者根本无法知晓为何自己看到的价格比他人高,也难以证明这是算法“杀熟”的操作。
面对算法“杀熟”这一顽疾,部分不甘被操纵的消费者发起了“反向驯化”大数据的行动,推出一系列“反杀攻略”。记者看到,一些网友发帖介绍防“杀熟”技巧,如清除浏览记录和缓存、使用隐身模式或不同浏览器、切换设备或网络环境、创建新账户或使用多个账号、比较不同平台价格等。这些看似机智的小妙招,实则处处透露着消费者的无奈。
信息泄露算法歧视成痛点
在人工智能技术深度嵌入消费场景的今天,消费者正面临前所未有的权益挑战。记者调查发现,从数据收集到消费决策干预,由于AI技术存在滥用问题,使得消费者陷入信息泄露、算法歧视的困境中。
数据是AI时代的“原油”,是驱动算法的核心燃料。据专业人士介绍,获取并处理海量数据(603138)所需的成本较高,包括数据采集、清洗、标注、存储以及合规审查等环节。在激烈的市场竞争压力下,部分企业为了快速抢占技术高地、降低研发成本,开始在数据获取的“灰色地带”游走,将消费者的个人信息悄无声息地转化为训练AI模型的“免费午餐”。
记者在采访中发现,在用户注册APP、软件或购买产品时,部分企业通过设置“默认勾选”同意隐私政策的方式,利用用户的疏忽或操作惯性,在未获得其明确、真实意愿的情况下,便将其个人信息纳入数据收集范围。更有甚者,隐私政策条款晦涩冗长,充斥着大量专业术语和模糊表述,如同精心编织的“法律迷宫”。这些模糊条款为企业后续的数据滥用埋下了伏笔。
据刘乃文介绍,目前AI对用户行为的深度解析能力,被一些企业转化为操控消费决策的工具。有的应用软件利用AI生成“定制化内容”,通过分析用户兴趣偏好推送诱导性广告,甚至虚构“限时优惠”“朋友已购买”等场景,诱导消费者在非理性状态下下单。算法还存在歧视问题。个别贷款平台通过AI算法对用户进行“数字画像”,将低收入群体、农村户籍用户自动归类为“高风险客户”,直接拒绝其贷款申请或提高利率。
天津四方君汇历史事务所律师吴子畏对记者说,面对AI侵权配资炒股入配资平台,消费者往往陷入举证难、追责难、赔偿难的“三难”境地。由于AI决策过程具有“黑箱”特性,消费者难以证明自身权益受损与算法之间的因果关系。企业则以“商业秘密”“技术复杂”为由拒绝披露算法逻辑。此外,跨国数据流动、多平台数据共享等新型场景,进一步模糊了侵权责任主体,导致消费者维权成本高昂。他建议,建立针对AI技术的专项监管框架,明确数据收集边界、算法审计标准及侵权赔偿机制。同时,消费者应增强数据保护意识,谨慎授权应用权限。
红启网提示:文章来自网络,不代表本站观点。