自毁式监控营销:挖掘隐秘数据追求过多的个性化算法对品牌弊大于利

情感导师 6409

 添加导师微信MurieL0304

获取更多爱情挽回攻略 婚姻修复技巧 恋爱脱单干货

个性化经常被吹捧为营销领域的灵丹妙药。一种无所不能的力量,能够识别我们的欲望和需求,使广告和体验世界更具相关性。所有这些都是为了卖出更多东西的崇高事业。

发表在应用心理学杂志上的一项研究发现,个性化广告吸引了更多的关注,并且在记忆中持续时间更长。所以,这么看来,突出性和心理可用性是广告成功的基础。但所有都是这样真的好吗?

嗯,也有研究表明,随着消费者更多地了解广告个性化的工作原理,他们越讨厌它。 YouGov最近的一项研究发现,45%的英国消费者反对将他们的数据用于信息、服务和广告的个性化,54%的人认为个性化广告令人毛骨悚然。

隐私和个性化之间的这种基本困境可以使用简单的自助工具来解释。

自毁式监控营销:挖掘隐秘数据追求过多的个性化算法对品牌弊大于利

1955年,两位临床心理学家Joe Luft和Harry Ingham(或Jo-Hari)创建了一个框架,用于理解人们及其与他人的关系,也就是约哈里之窗(Johari Window)。这个二乘二网格探讨了我们对自己和别人对我们的了解之间的交集。

开放区

第一个区域是开放区,其中包含有关我们的公开信息(我们的身高、性别、年龄)。这是大多数良好营销发生的地方,从广泛的受众定义到特定的过滤器。酒精和烟草公司不能针对特定年龄的消费者,但这个年龄因国家而异。防晒霜出售给机场的人。使用公开信息来个性化通常是不争的事实,并且经常是品牌需要的。一般来说,人们不希望自己的银行交叉销售已经持有的产品。如果你从未从Tesco购买肉类,那么Tesco也不会以肉类促销为目标。

这种个性化的挑战在于它与良好的常识接壤。人们不买肉,可能因为他们是素食主义者。您不需要机器学习模型就可以解决这个问题。通过这种类型的个性化产生的许多结果通常与随机样本进行比较,即比常识更笨拙,反过来性能提升也被夸大了。

隐秘区

隐秘区包含我们了解自己的信息,但其他人则不知道。许多人划分了他们的生活。有些人会讨厌让他们的工作同事了解周末的逍遥时光,就像发朋友圈会分组一样。其他人只想保住私人生活,保持自己的隐私。当礼貌的谈话中提出“浏览器历史”一词时,几乎每个人都会头冒冷汗。隐秘区后面的数据对个性化产生了重大的影响和后果。

这是个性化变得令人毛骨悚然的地方。广告可以完美地针对个人,但是目标可能是令人震惊的,即广告商已经将他们所谓的秘密赌博或色情习惯与在家人或同事面前,以个性化显示相关联。

一个著名的例子是前英国保守党国会议员和现任唐宁街战略家加文·巴威尔,他在工党在线新闻发布上看到一个广告,“与阿拉伯女孩约会”,然后在推特上抱怨了一番,由此暴露了他自己的浏览器历史。 (当然,你也可以这么想,他可能会与一群实习生共享浏览器。)

利用隐秘区数据的品牌正在冒着激怒消费者的风险,并且还面临着声誉受损的严重风险。克什米尔·希尔认为,Facebook的“你可能认识的人”算法将一位治疗师的病人相互联系起来。除了侵犯患者隐私之外,还存在将人们置于彼此风险之中的危险。

盲目区

所谓的盲目区是我们的朋友和家人可能了解我们的信息,但我们没有注意到。例如,如果你收到Listerine的广告,这是一种流行的漱口水产品,而且你不知道你有口臭(但是你的妻子确实这样做了),这么一来,广告用在你身上就是一种浪费,因为这条消息与那些不知道自己有需要的人无关。

更糟糕的是,了解消费者的盲点可能导致剥削。从了解哪位客户对价格更敏感,到利用那些有上瘾倾向的客户,这些都可以。零售商的目标是向他们认为最有可能作出响应的客户提供优惠和交易 - 营销101。但这应该走多远?在线博彩公司每个月都会向损失最多的客户提供免费资金。 EA Sports通过其FIFA和Madden游戏中的游戏内购买获得了8亿美元。由我们的盲点数据驱动的个性化可能会产生潜在影响。

未知区

未知区是最终和最少的图表空间。任何人都不知道的信息。对于品牌和消费者而言,这可能是一个巨大的盈利空间。预测未来是数据分析的杀手级应用,而今天的大多数分析都是历史趋势的反刍。

有些人热衷于了解他们的遗传学预测其未来的健康状况和相关风险,以便过上更长寿、更健康的生活。而其他人则感到震惊并试图避免这种预测。

个性化的问题

实践中个性化的证据非常丰富。然而,稍微触及表面,很多证据都经不起推敲。首先,大多数成功案例都是由销售个性化软件的技术供应商创建的。其次,个性化过程意味着品牌必须产生更多的沟通和内容变体,这会增加成本,这些成本通常不会被纳入比较ROI基准。第三,虽然个性化通常会带来显著更高的投资回报率,但这几乎总是以规模为代价。 ROI是约束条件下效率的衡量标准。任何声称改进10倍的人都不是在谈论利润或市场份额,而是基准点率明显低于1%。

打击恐怖主义、打击欺诈和推进医学科学,显然都是人工智能和算法可以造福我们的例子。然而,毫无疑问,数据也有不好的一面,特别是一些世界科技巨头如何使用它。在这个阶段,我们中的大多数人可能已经习惯了谷歌和基于我们搜索和浏览习惯的Facebook广告。它可能是侵入性的,有时甚至有点令人十分反感,也许在一定程度上也是可以理解的,比如为了生存下去,为了利润等等,或许相对无害。

但这些公司现在对我们生活的洞察程度远远超出了我们访问的网站或在线购物。俗话说,如果你不知道产品是什么,那么产品就是你。对于免费搜索、电子邮件和社交媒体的取舍,是这些公司从我们的在线活动中获取的海量数据。如今,这些公司比我们的许多朋友和家人更了解我们。他们不仅能分析我们的感受,有证据表明他们也能影响我们的感受。

例如早些时候有报道称,Facebook曾告诉澳大利亚的广告商,它能够识别出那些感到“不安全”、“毫无价值”的青少年。在最初道歉后,该公司随后发表声明称,不会“根据人们的情绪状态,提供针对他们的工具”。但如果是这样的话,为什么要向广告商推销这种功能呢?当这些科技巨头的力量达到了我们的情绪可以被监控、操纵和潜在盈利的地步时,我们肯定已经进入了反乌托邦的领域。

亚历山大·科根(Aleksandr Kogan)是Facebook / 剑桥分析“数据门”事件的核心人物,他声称性格分析对目标广告的准确性是极度夸大的,他估计自己对一个人每件事都做错的可能性是对的六倍。

社交媒体平台提供免费服务,耗资数十亿美元,并通过有针对性的广告将其努力货币化。由于这些广告平台的规模和复杂性,目标是通过算法进行管理的,而那些讨厌的算法并没有考虑到他们可能面临的所有道德窘境。

谢菲尔德大学的研究论文由Ysabel Gerrard探讨了个性化算法在向有自杀和自我伤害相关主题及内容的用户,推广额外的饮食失调的作用。算法虽然准确,但应用却不道德。

Netflix最近因其电影和电视剧的艺术作品个性化而受到批评。在Netflix体验中,封面图片是对客户观看习惯的最大影响。在没有将种族纳入算法的情况下,个性化算法将观众与包含具有相似种族背景的演员的电影相匹配,并且重新设计了艺术作品以使这些演员成为特征,尽管他们通常是次要角色。算法不需要在种族数据上进行训练,就能产生针对不同种族群体的高度分化的结果。大规模的机器学习充满了意想不到的后果,因为算法没有道德规范。

通往地狱的道路是用善意铺就的。个性化通常被定位为营销的灵丹妙药。它永远被视为一件好事。然而,人们对个性化体验的强烈渴望正推动着许多道德界限,尤其是在网站cookie免责声明上轻轻点一下OK,就能得到越来越多、越来越私密的数据。

如果不出意外,欧洲新的《通用数据保护条例》(GDPR)立法已经提升了我们在互联网上联合数据的隐私和安全性的担忧。随着公众对自己的数据应该如何用于商业目的的看法发生着重大转变,严重依赖隐秘区背后的个人数据,或商业利用隐藏在盲目区中消费者倾向的公司可能会发现自己站在了错误的一边。

有什么替代选择?

为了降低这种风险,公司应该寻求让消费者参与进来,并将个性化从他们对客户所做的事情转变为人们可以定制自己体验的合作式企业。公司还应审核自己的个性化工作,并询问他们是否过度依赖隐秘区背后隐藏的数据。

二十年前,公司开始在年度报告中报告其企业社会责任活动。 这种非财务披露的趋势有助于将企业描绘成良好的企业公民。 今天,企业有一个类似的机会,公开表明他们的数据使用政策,不仅要遵守法律,还要通过额外的努力,以道德的方式和应有的尊重来与客户建立信任。

评论列表

头像
2023-10-27 10:10:24

挺专业的一个情感机构,我一个朋友在那里咨询过,服务很贴心!

头像
2023-07-09 06:07:43

可以帮助复合吗?

头像
2023-06-28 23:06:52

如果發信息不回,怎麼辦?

 添加导师微信MurieL0304

获取更多爱情挽回攻略 婚姻修复技巧 恋爱脱单干货

发表评论 (已有3条评论)