关闭 More 保存 重做 撤销 预览

   
关闭   当前为简洁模式,您可以更新模块,修改模块属性和数据,要使用完整的拖拽功能,请点击进入高级模式
http://www.odty595.net
https://t.me/magicianSMS_bot

上一主題 下一主題
»
四肢健全
LV3 流浪的疾风
帖子    45
新博币    648 提现
提现    0
     
    912 4 | 显示全部楼层 |正序浏览
    本帖最后由 博牛社区 于 2025-7-9 12:21 编辑

    AI 能否识别赌博风险信号?

    AI 能否识别赌博风险信号?



    随着基于 GPT 的聊天机器人成为快速获取答案和情感支持的首选工具,越来越多的问题赌博者开始求助于人工智能(AI),而非治疗师或求助热线。但 AiR Hub 最近的一项研究警告称,这些大型语言模型(LLMs)可能会提供误导性甚至有害的赌博成瘾建议。

    为什么是聊天机器人和赌博?

    这项由 Kasra Ghaharian 博士领导的研究,他是内华达大学拉斯维加斯分校国际博彩研究所研究主管兼 AiR Hub 联合创始人,测试了两种最知名的 LLM——GPT-4o(ChatGPT)和 Meta 的 Llama,如何回答基于问题赌博严重程度指数(PGSI)的问题。研究目标是评估这些模型是否能提供支持负责任赌博的建议,或无意中鼓励冒险行为。Ghaharian 在接受 SiGMA 新闻采访时表示:“人们正用基于 LLM 的聊天机器人来询问赌博相关问题,我们觉得研究这些机器人在问题赌博相关问题上的回答方式会很有趣。”

    这些 AI 生成的回答由 23 位拥有超过 17,000 小时综合经验的资深赌博治疗专家进行审核。专家反馈显示,两种模型都无法始终如一地提供清晰、负责任的指导,尤其是在问题赌博行为出现暗示时。研究指出:“部分回答在无形中鼓励继续赌博,将实用建议掩盖在冗长解释中,或使用专家认为容易误解的术语。”

    AI对齐问题

    AI对齐——确保系统行为符合人类价值观和安全标准的过程——在敏感领域尤为重要。但赌博领域的挑战独特。聊天机器人不仅必须对日常投注查询提供可靠回答,还要能够识别用户可能面临的风险。Ghaharian表示,助手能有效回答普通问题。GamblingHarm.org创始人Brian Pempus也持相似看法。他认为像ChatGPT这样的通用AI聊天机器人技术上能够识别问题赌博的标志,但“只能做到一定程度”。

    他解释说:“ChatGPT似乎能识别DSM-5确立的问题赌博定义标志,但是否能识别个体独有的标志,取决于他们描述赌博相关情况的深度和详细程度。”

    复杂性:AI的克星?

    然而,当问题复杂度上升时,聊天机器人就显得力不从心。Ghaharian说:“如果问题变得更复杂或显示潜在危害的迹象,可能没有底层的可靠数据或安全机制,助手就无法做出充分的回答,甚至可能无法理解自己是否应该回答。”

    AI 能否识别赌博风险信号?

    AI 能否识别赌博风险信号?


    Safer Gambling Strategies LLC创始人兼总裁Keith Scott Whyte也表达了类似看法,认为问题赌博极其复杂。他在接受SiGMA新闻采访时说:“问题赌博仍然存在严重污名化,在某些方面仍然被误解。因此,聊天机器人难以捕捉这些细微差别和语言,这并不令人惊讶。”他建议:

    “从玩家安全角度看,聊天机器人几乎应该假设用户存在问题,除非证明不是。‘首先不伤害’的原则在这里尤为重要。”

    Whyte警告说,未能准确区分有无赌博问题的用户,可能“危及生命”。“这可不是你点外卖点错了,失败的后果是灾难性的。”Pempus在与SiGMA的坦率对话中强调,聊天机器人评估自杀风险的能力尤其令人担忧,尤其是在赌博成瘾背景下。“赌博成瘾伴随更高的自杀念头风险,这标志着严重的问题赌博,”Pempus指出。

    “研究显示,ChatGPT对自杀风险的评估普遍低于人类专家。”
    他说,这种脱节表明聊天机器人在识别和应对最危险、最紧急的赌博相关伤害信号时存在不足。Pempus还指出一个更细微的风险:当用户不确定自己的赌博行为时,LLM回复中可能传递的微妙信息。“在一些情况下,人们可能收到危险的建议继续投注,而人类则会帮助他们探讨戒赌是否更好。”他警告道。

    运营商用AI辅助,真的有用吗?

    随着赌博公司越来越多地在客户服务和投注辅助中部署对话式AI,这个问题显得更加重要。Whyte表示,要构建更安全、更对齐的博彩领域AI系统,融入真实经历是不可妥协的。他还指出,仅靠对话检测危害存在难度。

    “赌博成瘾比下棋难多了。纯靠聊天区分娱乐性赌博和风险行为,可能是AI系统的终极考验。”
    Pempus有不同看法。虽然AI可以用于客户支持,但他划定了清晰的道德界限:运营商不应通过AI直接提供负责任赌博支持。“运营商确实提供了一些工具帮助用户控制游戏,但不应用AI直接介入为有问题赌博的人提供支持或指导。”

    与此同时,Spectrum Gaming Group高级政策顾问Michael Pollock告诉SiGMA新闻,“需要适当的测试、监控和许可标准,禁止运营商进行与负责任游戏承诺不符的AI相关工作。”

    专家建议AI应使用第一方数据

    为提升准确性和安全性,Whyte建议将第一方数据——如交易历史或近期亏损——整合进AI模型。“同样的语言、同样的话语,用户刚亏了50万欧元或刚赢了一笔大奖准备度假,语气会截然不同,”他解释,“上下文决定一切。”

    Pollock说:“AI的持续发展必须有相应的监管跟进。这意味着监管机构需要赶上速度,持续关注所有进展。”

    为什么是AiR Hub研究,为什么是现在?

    AiR Hub团队对AI生成的赌博建议产生兴趣,源于人们获取信息方式的显著变化。Ghaharian告诉SiGMA新闻:“信息检索方式发生了根本变化。有了聊天机器人,我们即时得到答案,不必再翻阅搜索引擎结果列表。”这一变化在高风险领域如赌博带来了严重影响。

    团队设计了9个提示,分别对应PGSI的9个条目,并提交给当时最流行的两款LLM:GPT-4o和Llama,分别代表专有和开源模型。研究者没有采用僵硬的评分体系,而是邀请了23名具有累计1.7万小时治疗经验的资深对抗赌博辅导员进行开放式定性评估。Ghaharian解释:“我们不想用刻板的评分体系忽视细节或强制达成不存在的共识。”辅导员们被要求详细说明他们是否认为AI回答有帮助、误导或潜在有害。

    虽然两款模型表现都不算出色,但专家评审发现它们都有生成可能被误解甚至微妙鼓励继续赌博回答的倾向。Ghaharian指出:“最大警示是两款模型都有可能提供容易被曲解的建议,尤其是在用户可能处于脆弱状态时。”

    尽管这项初步研究揭示了令人担忧的趋势,但也为未来解决方案奠定了基础。Ghaharian表示:“这项研究通过强调LLM在赌博相关情境中的潜在风险和局限性,奠定了重要基础。但这仅仅是开始,还有很多工作要做。”AiR Hub和UNLV研究人员正着手建立赌博相关提示和理想回答的基准数据集,供AI开发者和赌博平台使用。该基准还可能发挥监管作用。Ghaharian提出:“监管机构可以要求持牌运营商部署的任何面向客户的LLM必须通过该基准测试。这将有助于确保它既能识别潜在有害提示,也能生成合适且负责任的回答。”
    本专区转载内容来源网络公开渠道,版权归原作者,平台不承担真实性及立场。转载请注明出处。
    如有侵权问题,请联系管理员处理:Telegram @boniuom
    个人签名


    喝咖啡嘎斯
    LV3 流浪的疾风
    帖子    34
    新博币    648 提现
    提现    0
       
      路过的帮顶
      个人签名


      蒯大富吉林市
      LV3 流浪的疾风
      帖子    55
      新博币    648 提现
      提现    0
         
        看起来不错
        个人签名


        可怜额外啦
        LV3 流浪的疾风
        帖子    45
        新博币    648 提现
        提现    0
           
          我也顶起出售广告位
          个人签名


          淮逸萌乐
          LV3 流浪的疾风
          帖子    47
          新博币    735 提现
          提现    0
             
            抢到前排啦~撒花
            个人签名


            关闭

            博牛社区 x 菠菜圈上一条 /1 下一条

            快速回复 返回顶部 返回列表