Meta计划将高达90%的风险评估工作交由AI完成,包括涉及青少年风险和暴力内容等敏感领域。这一变革的目的是通过AI加快审核流程,减少人工审核的负担。尽管AI审核能够快速处理大量数据,但员工警告称,这种方式可能会忽视一些人工审核能识别的严重风险。Meta的这一举措主要针对Instagram和WhatsApp等社交媒体平台,以提升效率。然而,一些Meta的前高管指出,减少人工审核力度可能导致更高的风险,尤其是在产品变更带来的潜在问题没有得到及时识别的情况下。Meta表示,尽管AI系统处理低风险内容,但对于复杂或新颖的问题,公司仍然会依赖人工审核。 "Image 4" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/11e6934f-6aa8-4945-b97f-33b70d733122.jpg) Meta的人工审核任务长期以来主要针对产品发布前的风险评估,然而,随着AI的引入,Meta大幅度增加了对AI系统的依赖。通过填写调查问卷并提交给AI进行风险评估,Meta的产品团队现在能够快速得到风险评估的“即时决策”。然而,这种快速决策也带来了一些挑战,前高管担心过度依赖AI可能带来无法预见的风险,尤其是在产品发布后可能出现的问题。Meta回应称,AI将主要处理低风险决策,而对于复杂且新颖的风险,仍会依赖人工专家进行评估。
阅读量:172
点赞量:9
收藏量:0
不错