关闭 More 保存 重做 撤销 预览

   
关闭   当前为简洁模式,您可以更新模块,修改模块属性和数据,要使用完整的拖拽功能,请点击进入高级模式
重播

上一主題 下一主題
»
Emma海外服务器
管理小天使
当前积分:1233
帖子    674
新博币    3489 提现
提现    0
TA的勋章:勋章中心
     
    5070 4 | 显示全部楼层 |倒序浏览
    【大纪元2024年07月09日讯】有关机器或者人工智能机器给人类带来灾难的担心已经持续了两三百年。我们看到大部分有关世界末日的电影其实都和人工智能的电脑系统有或多或少的关系。大部分人不明白AI的原理,对未知的未来感到担忧,这当然情有可原。但最近越来越多的高科技行业人士,甚至是AI的专家也开始对这个问题表达他们的担心。那么,这些忧虑到底是基于什么样的原因?是有所根据,还是杞人忧天、危言耸听呢? AI会导致人类走向末日吗?




    掌握AI将统治全球 AI发展进入危险期
    独立电视制片人李军在新唐人《菁英论坛》节目中表示,现在有一大批高科技专家学者、政客,对于AI的发展忧心忡忡。 2023年的5月份,被称为ChatGPT之父的Altman和超过350名人工智能方面的专家,联合签署了一份公开信。他们认为人工智能有可能导致人类灭绝的风险,所以应当将其视为与大流行病和核武战争同等的社会风险。 Altman说过一句话,无论谁成为AI的领头羊,他都将统治全世界。这句话让很多人不寒而栗,因为如果这个技术落到了没有道德的人或组织身上,那对人类将是灭顶之灾。 Altman还建议建立类似国际原子能机构组织,安全监管AI的发展,政府也要加强监管。伊隆‧马斯克则认为AI技术有10%到20%的可能性会消灭人类。川普(特朗普)曾问过马斯克,说现在有可能用AI技术来模仿美国总统,发动核战争触发世界核大战吗?马斯克的回答是肯定的,所以川普很担心,如果AI失控的话,会给人类带来巨大的灾难。

    李军说,从长远看,随着AI从弱人工智能一步步发展到人工通用智能,甚至到超人工智能,人类的各项工作什至是家庭角色包括妻子、丈夫都有可能被取代,这对整个社会的发展应该是颠覆性的了,更有可能是失控的。那时候或许它已经比人类聪明很多倍了,成了人类的主人了。人类有办法避免这种可能性吗?

    人工智能专家杰森在《菁英论坛》中表示,马斯克提到的AI有10%、20%的可能未来真的是会毁灭人类,那我想它可能是有一定的延展性。比如说把现有的技术再延展五六代、三四代,那么AI有可能会出现自我意识。

    现在人工智能有一个比较危险的方向,叫做Agent,就是让一系列人工智能程序中的每个程序扮演不同的角色,再用它们的交互的过程来实现某种工作。比如它的构造用十个AI的Agent,我叫它代理人或者智能体,每个都扮演不同的角色,让他们在交互过程实现一个软件开发的全过程。这个过程在现有人工智能模型下还不那么可怕,但是如果将来人工智能本身智力越来越高的时候,那么在这个互相几个Agent交互过程中,人类的可控性就被削弱很多了,你不知道它们在交互过程中会讨论出一个什么样的状态来。为了达到某个目标,它们如果没有一个明确的法律准绳或者说道德的准绳,它们会讨论出什么过程?如果讨论出的这个东西是很糟糕的,那么这个就让人很担心,我对这个方向是担心的。

    AI发展遭遇瓶颈期 人类缓口气
    杰森在《菁英论坛》表示,未来AI会不会到最后控制了人类? 2023年我觉得可能,今年我稍微乐观了一点点。大概在2022年的11月,当时ChatGPT出来的时候,我第一次被震惊到了,当时那个人工智能模型是OpenAI的GPT3.5,已经让我非常吃惊了。等到大概2023年3月的时候,OpenAI就推出来了GPT-4,那个就彻底让我惊讶了。如果把GPT-3理解成一个幼儿园,小学一二年级小孩儿智商的话,那么GPT-4其实就已经达到了高中生甚至有部分是大学生的智商,因为它通过法律考试的时候,成绩超过了前10%,在这么短的时间内发展如此之快,这让我非常惊讶。当时我在节目中说,人类社会出现奇异点了,就是人类从此走上了一条不归路。

    当然在今年,我稍微放心了一点。在过去的一年里,GPT-4几乎一直处于整个现在人工智能的山尖这个位置上,不管是Google出的Gemini(聊天机械人),还是后来Claude出的Claude3模型,虽然这模型的能力稍微明显地超出了GPT-4,但是它的提高是非常小的。从这个过程我就看到,其实很可能人类人工智能如果没有新的技术突破的话,按现有的技术,未来的发展可能会缓下来。原来大家预计今年、明年就会出现真正的通用性人工智能,现在看来这样的设想可能稍微有点突进了。就我看的话,是因为有技术上的原因使得目前GPT-4出现了某种意义上的瓶颈,再突破很可能是一种量化的突破,而不是GPT-4和GPT-3.5之间质变的突破,就是人类事实上是走向了一个数据瓶颈这样的概念。

    杰森表示,限制技术发展的原因主要是数据方向。有人说某种意义上讲,GPT-4已经拿下了互联网70%的信息,换句话说,在人类数据增长的过程中,它能拿到的数据已经基本上都拿下来了,要是说再扩展,再乘以十倍的数据量,那很可能就不是人类现有能生成的自然数据量了,可能就得用人工智能自动生成创造。那么这个时候就有点内卷了,因为AI的智力就来自于现有的知识,现有的知识卷出来的人工智能的输出,然后以这个输出再去作为数据,它就跟原来那个实实在在来自于人类原始的数据的质量,各方面就不一样了,多样性、创造力各方面都不一样了。所以,数据现在成为整个人工智能发展的一个瓶颈,这使得整个社会有可能缓一口气,来面对未来人类如何应对AI的问题。

    中共无道德底线 欧美阻其核武AI化
    大纪元资深编辑与主笔石山在《菁英论坛》表示,全世界现在谈的最多的就是AI军事化,尤其是核武器,一旦真的发射以后就控制不住了。因为现在美国跟欧洲已经有默契了,它们正在跟中国和俄罗斯试图要谈这个问题,就是一定不能把AI用在核武器的控制上面。如果AI突然伪装成总统发出核攻击的指令,这是太令人恐惧的一个前景了。

    杰森在《菁英论坛》中表示,AI控制核武器,我想目前还没有哪个神经病的国家想这么做,但是,这是在一个和平理性的状态下说这样的话。有很多鼓励AI发展的那些技术人士或者专家,他们说的很多话都是基于目前这样的状态,但是他没有在动态的极端情况下去考虑这个事情会往哪个方向走。而中共是没有道德底线的,从我们知道的生物科技等各方面都可体现出来,它做出来的东西就是超出人类的伦理道德。但是这个过程中,要是中共真的在未来因为某种原因,不管是南海、台湾海峡跟整个世界变成对手的时候,中共会不会因此开始考虑把AI技术更多地应用于武器上?不说核武器,只是导弹各方面,事实上存在非常大的可能性。独裁国家经常会说一句话,就是大不了我们死几亿人换来什么什么,这就是为什么目前AI在国际上处于两难的状态。一方面大家都觉得应该控制AI的发展,一方面又说应该发展AI,不能让中共领先了,AI要由西方控制,让中共发展起来怎么办?人类事实上某种程度上是被一些邪恶的因素裹挟着,以技术竞争为借口,把人类往一个非常危险的境地上推。

    AI改变资讯传播模式 人类文明面临巨大冲击

    https://www.epochtimes.com/b5/24/7/9/n14286981.htm

    个人签名

    台湾十几年自营机房|各国免实名免备案服务器|抗投诉|解决移动屏蔽|加速CDN防禦 |IPLC专线 |大带宽|站群|tg@XMOhost38

    donkey_nuts
    管理小天使
    当前积分:32478
    帖子    8268
    新博币    23 提现
    提现    0
    TA的勋章:勋章中心
       
      个人签名

      rango1688
      实习版主
      当前积分:23158
      帖子    5951
      新博币    9 提现
      提现    0
      TA的勋章:勋章中心
         
        个人签名

        xiaoxiami
        管理小天使
        当前积分:8288
        帖子    2065
        新博币    17 提现
        提现    0
        TA的勋章:勋章中心
           
          人类
          个人签名

          EAGLE1986
          LV1 初心者
          帖子    21
          新博币    260 提现
          提现    0
             
            如何
            个人签名

            点击按钮快速添加回复内容: 支持 高兴 激动 给力 加油 淡定 生气 回帖 路过 感动 感恩
            您需要登录后才可以回帖 登录 | 立即注册

            本版积分规则

            关闭

            博牛推荐上一条 /2 下一条

            快速回复 返回顶部 返回列表