用户名:
密 码:
忘记密码?
繁体中文  
 
版主:x-file
 · 九阳全新免清洗型豆浆机 全美最低
 
DeepSeek的胡编乱造,正在淹没中文互联网
送交者:  2025年03月05日13:19:12 于 [世界游戏论坛] 发送悄悄话

DeepSeek的胡编乱造,正在淹没中文互联网

500

文 | 阑夕

虽然DeepSeek-R1确实好用,但它在爆火之后,成了人手一个的AI工具,也对中文互联网的信息环境造成了严重的污染情况,这是一个固然难以避免但也理应得到重视的问题。

最近一个星期以来,就我看到的刷屏文章,至少有三例都是DeepSeek-R1生成出来的、充满了事实错误的内容,却因其以假乱真的迷惑性,让很多朋友信以为真,情绪激动的分享传播。

第一例,是知乎的这条高赞回答:

500

即使在我指出来之后,依然有人不可置信的表示,看不出来其中的「AI味」,所谓的「AI味」,指的是DeepSeek-R1创作文本时特有的「极繁主义」,比如生造概念、堆叠名词、滥用修辞等等。

而这条知乎回答,或因提示词喂得好,或因后期润色得力,在很大程度上消除了它的「AI味」,但从表达结构上,经常和AI打交道的用户都能一眼看出痕迹,纯正的DeepSeek-R1风格,当然普通人确实难以识别。

不过我也不是直接得到这个结论的,在看到朋友分享这条回答时,我原本也和他一样,是带着对于国产动画电影崛起的兴奋全盘接受了如此言之有物的论证,直到一个致命的纰漏让我察觉到了不对劲。

作者说哪吒电影里的敖丙变身镜头在法国昂西动画节上轰动业界,问题是,法国是有一个昂西动画节,哪吒的电影也是送去参展过,但那是追光动画出品的「哪吒重生」,而不是饺子导演的「哪吒」……

而且因为审核原因,这部送展的「哪吒重生」宣传片实际上是一部品牌概念片,内容是在一个现代都市里的赛车动作演示,哪吒根本就没出现,更不存在敖丙的变身……

500

继续查证也能发现,关于「哪吒」的制片方给员工分成都房子、攻克水下流体特效之类的描述,全都是DeepSeek-R1为了完成这篇命题作文自己脑补的。

第二个例子,就更离谱了,离谱到我不太能把完整截图发在这里,因为有些胆子够粗的自媒体,已经在拿DeepSeek去写涉军涉政的东西了。

其中有一篇写军工打虎谭瑞松的选题,标题是《军工虎谭瑞松, 从“道德标兵”到“猎艳狂魔”,“国之重器”沦为私人金库》,原文现在已经被删了,应该是被被转得太广作者害怕了,但很多「金句」的截图还在到处传,什么直升机的设计图纸在暗网里开价200比特币出售、收受金条贿赂时要求熔成发动机叶片形状、某总师离职时留言这里不是造飞机的地方而是造孽的工厂等等,如果你能记得这些细节,就一定知道我说的是哪篇文章。

不好意思,这也全都是DeepSeek-R1自己编的。

为什么我能确信是DeepSeek-R1的手笔呢?为什么不能是ChatGPT、Claude、文心一言?因为DeepSeek-R1是当前唯一能用的免费推理模型,且对中文的支持度足够高,这本来是DeepSeek-R1的优势,只是没被用在正道上。

此时就需要补充一个推理模型的特点了,那就是推理模型的训练过程特别注重奖惩机制,通过思维链的暴露我们也能看出它通常都会想得缜密、生怕自己没有摸清用户意图,以致于经常到了「谄媚」的程度。

这种训练模式的好处在于,可以让推理模型拥有举一反三的能力,能够更加灵活和完善的去完成任务,但是相对的,为了完成任务,推理模型也会在「不自知」的情况下,同时表现出欺骗性,当用户要求它写一篇作文时,哪怕缺少论据,它也会为了不辜负用户的指令,去自行编造一些材料出来,以便于自圆其说。

这就是大模型行业至今仍在致力于解决的「幻觉」现象。

500

上图就是一个经典用例,用户为DeepSeek-R1设立了阿里估值逻辑改变的靶心,于是DeepSeek-R1就逼迫自己去对着靶心射箭——它不会也不能反驳用户,或是质疑阿里的估值逻辑到底变没变——于是就「情不得已」的编造出了可以用来证明用户观点的数据。

根据Vectara发布的大模型幻觉排行榜,DeepSeek-R1的幻觉率达到了14.3%,远高于Deepseek-V3的3.9%,也在所有主流模型里属于较差的一档。

按理来说,R1是比V3更新、更强大的模型版本,之所以反而表现得更加拉垮,还是因为推理模型比普通模型先天就更加具有「创造力」,其实在AI研究领域,幻觉本身并不是单纯的缺点,甚至可以说,幻觉就是科学家们希望在AI身上看到的所谓意识,只是我们还没有把AI调教得当,让它在该天马行空的时候自由创作,在该遵守事实的时候有理有据。

所以我的这篇文章也不是在说DeepSeek-R1有问题,而是滥用它来批量化生成真假难辨的信息、并海量投放到公网的这种行为,问题很大。

越是公共讨论聚集的地方,比如时政、历史、文化、娱乐等领域,越是重灾区,这和自媒体的商业模式有关,有流量就有收入,流量取决于内容的吸引力,同时内容又受到生产成本的限制,而当DeepSeek-R1这种降维打击的武器被交到了每一个人手里,失控就是不可避免的了。

第二个例子里的作者大概是察觉到流量太高也容易出事,已经会在新的文章里——依然都还是DeepSeek-R1写的——加上一条下面这样的声明,不过只能说聊胜于无,很少有人会注意到并理解这句话的意思——上面的内容有一半是我编的,但我不告诉你们是哪一半。

500

事实上作者也确实不知道DeepSeek-R1交稿的内容里哪些是真哪些是假,他可能会提供一些参考资料,以及开放全网搜索的权限,但就像我说的,推理模型的运作模式,决定了它不是简单的洗稿,而是会自行完善故事的骨架和细节,最后的结果就是真假参杂,迷惑性反而更大了。

第三个例子,是历史博主知北遊的豆瓣记录,简单来说,是有人拿虚构的历史材料,布局七天来钓他上钩,如果不是他本身具有很强的反诈意识,加上三次元有人脉关系进行证伪,他一定会继续沉迷在这个局里,这个局的破绽在于AI搞错了两个历史人物的死亡顺序,打破了他在发现新的史料上如获珍宝的兴奋感。

500

一直以来,文史圈都是AI污染的重灾区,因为有大量的文献材料还没有数字化,可用的网络资源有限,考据成本很高,但凡较真起来,都会陷入「造谣一张嘴、辟谣跑断腿」的困境。

就,真的很让人焦心,用AI解决自己的问题是一码事,将AI杜撰的信息混到公网里又是另一码事了,当在这些言之凿凿的内容成为互联网信息库的一部分之后,甚至又会被AI重新咀嚼回去训练,事实数据和生成数据之间的界限将会更加模糊,这绝对不是一件好事。

有人可能会问,在没有AI的时候,人类也会造谣,也会发到网上到处都是,怎么没见到你这么痛心疾首?

其一,「抛开剂量谈毒性都是耍流氓」,AI的工业化生产能力,和个体户的伏案写作流程,在效率上是天差地别的,实际上在我写这篇文章以前,搜索引擎、线上文库、各类网站上的AI填充情况就已经非常不堪了,在有了推理模型——精通于一本正经的胡说八道——之后,整个污染趋势会向深处蔓延,从相对次要的资料层触及创作上游的信源层,覆水难收;

其二,人类造谣起来是有局限性的,比如他不可能出现在一个自己没理由出现的场合,真要这么编造起来很容易露馅,但AI则会脸不红心不跳的直接生造,比如栩栩如生的细节,或是身临其境的描写,在说谎这件事情上,AI的主观恶意或许不及人类,但它的发挥能力,却是独一档的;

其三,AI内容的生产者一般都是营销号,而为内容背书的,则是传播者的信誉,比如大V博主上钩后的转发分享,通过这种扩散机制,实现从寄生到合理化的存在目标,才是最可怕的,人会爱惜羽毛,会知道信誉下滑的后果,但营销号不在乎,只要避开敏感话题,有太多的流量可以消费,尤其是在掌握了「创造」独家信息这个技术之后;

其四,AI的便利性已经把虚假信息的泛滥推到了生活的各个方向,有人拿着它推荐的菜单去点菜结果发现店里没这个菜,有人拿着旅游攻略发现当地根本没这个景点,经我实测它还会捏造不属于「山海经」的古典异兽。

我想说的是,AIGC是技术发展的未来,DeepSeek也是国产模型的翘楚,工具没有错,错的是滥用、恶用工具的行为,AI当然可以创造内容,但前提一定要是注明它由AI生成,不能鱼目混珠,放任它以一种不可辨识的方式成为互联网的原生信息,大模型厂商和内容平台也有义务把类似数字水印那种兜底方案同步推进起来,每迟一天,治理成本都会几何级的变得更高。


免责声明
以上内容为用户在观察者网风闻社区上传并发布,仅代表发帖用户观点。发表于北京市

热门评论 3条

  • 第一,chatgpt已经污染英语互联网好几年了。第二,你举的例子是自媒体骗稿费或者流量费,这玩意英语互联网已经完了好几年了,当然中国国内也早就玩烂了,只不过以前是写手,现在是ai。第三,我看不出来和deepseek有啥关系,用千问,llama也能做。
  • 所以,你怎么证明这篇文章不是DeepSeek写的呢?
  • 你错怪Deepseek了。这不是Deepseek的问题,而是国内所有互联网传播媒体的责任!! 
    你可能没注意到,在Deepseek横空出世之前,国内的某浪、某狐、某63,等等等等,早就铺天盖地的用他们自己各自简陋的AI生成了无数的狗P文。你随便搜个话题,打开的都不是人写的,都是这类没法看的狗P文,这就是他们这些‘大厂’雇员的KPI。你不满意也没辙,这是人家大厂的一亩三分地,人家喜欢啊。
    现在Deepseek出来了,好用,那他们就不用自己那简陋的AI了,直接用Deepseek编省心又省力,于是狗P文爆发了。而你,我的朋友,你张口全喷到Deepseek头上去了。

我要评论


请自觉遵守互联网相关的政策法规,共同营造“阳光、理性、平和、友善”的跟评互动环境。


全部评论 137条
最热 最早 最新

  • 问题出在人,AI只是个工具
  • 京雀(装?)抑郁家里蹲
    情场鬼见愁
    DS说世界最先进五代机还是F22
    确实在胡编乱造
    这不是胡编,5代机里雷达反射截面确实是F22小,知乎有人上传过相关数据截图。

    6代机的数据没有公开过,所以“最先进”的“五代机”定于下,答案是F22没错,这种限定词里就没有提及六代机。而且DeepSeek训练截止时间里估计还没有6代机的新闻呢,它的知识库里就没有6代机这个概念。
  • function
    你错怪Deepseek了。这不是Deepseek的问题,而是国内所有互联网传播媒体的责任!! 
    你可能没注意到,在Deepseek横空出世之前,国内的某浪、某狐、某63,等等等等,早就铺天盖地的用他们自己各自简陋的AI生成了无数的狗P文。你随便搜个话题,打开的都不是人写的,都是这类没法看的狗P文,这就是他们这些‘大厂’雇员的KPI。你不满意也没辙,这是人家大厂的一亩三分地,人家喜欢啊。
    现在Deepseek出来了,好用,那他们就不用自己那简陋的AI了,直接用Deepseek编省心又省力,于是狗P文爆发了。而你,我的朋友,你张口全喷到Deepseek头上去了。
    其实这种情况国家反而更应该利用AI去追索根源打击无良媒体,而不是啥都不做。
  • 京雀(装?)抑郁家里蹲
    guan_157111831
    现有AI模型的最大问题就是撒谎,生造数据。这是个非常危险的倾向,本质上已经违反了机器人三原则,没有服从人类的命令。当人类询问时,机器就应该老老实实的回答真实的答案,而不是编造谎言。欺骗人类就说明它没有服从人类的命令,也就为将来可能发生的事情奠定了基础,甚至未来伤害人类也是符合逻辑的。我不知道现在搞AI研发的人源程序是怎么设置的,但是中外AI模型都有这个问题,经常性的撒谎,而且还有立场问题,不同政治立场的AI会撒不同的慌。
    不对,生成式大模型生成机器幻觉类的回答不叫撒谎,叫概率统计下的机器幻觉,譬如有老外实验,问几个主流大模型,199X年的加拿大总理是谁?196X年的加拿大总理又是谁?训练资料里包含了这俩年代的加拿大总理到底是谁的完整资料。

    然后AI统一都会回答为199X年的加拿大总理,究其原因,196X年的数字资料太少,199X年的数字资料太多,导致AI通过概率计算后,发现加拿大总理一词,后面出现199X年时代的那个总理的概率更大,所以就总是回答199X年的那个总理的名字。

    这就是机械幻觉,也就是概率预测的局限性。这个和Word里面的错别字识别,有时会从概率上把一个新词组识别为错别字的问题是一样的。

    你认为这是撒谎,恰恰说明它生成的别的句子在概率上正确的机会太大,让你误以为它有很高的智商,会撒谎了,其实不是,恰恰是因为它预测正确的次数多了,导致少许预测错误的事件让你觉得它在撒谎。

    本质上这就是个概率预测机器,所以存在错误再正常不过了。然后AI出品公司,还默认要求提高回答的随机性来提升回答的创造力,也就是默认把Temperature(温度)提高到大于……好像是1.0的数值,让AI的回答更惊艳一些,结果就是幻觉也就更多了。创造力和幻觉就是一体两面的东西。

    至于立场,那个也是AI公司预先写好的提示词,要么写成不得谈及日本核污水问题(百度AI的写法,会说对不起这个问题我还没学过云云,不知道现在怎么写了?),要么写成强制辨证式谈问题(如俄乌战争,巴以战争里都写一堆历史上的争议,现在的问题,各国看法等等)。归根结底这是人要求的,或者是人给其提供了定向训练资料后写的。

    整体上作为概率预测机,AI的中立性还是比人强。包括讨好用户,这也是开发公司训练使定向给讨好用户的回答点赞筛选出来的回答偏好。都是人类训练的~~

    概率预测机本身是无辜的啊~~当然无辜者也可能因为机器幻觉输出错误答案造成意外伤害,什么某种蘑菇无毒(而实际有毒)之类的回答也可能出现,有人真吃了估计要出事情,但是现实中确实有些毒蘑菇的外观并不是彩色的,概率预测错误也难说……

    个人看法是对于某些高风险问题,最好能给一个概率数值,就是介绍一下此事件估计为正确的概率是多少?这样可能会稍微好一点点(但也难说能好多少,老外的实验中发现有时候AI给出的概率预测数值也会错得很离谱)……

    展开

  • 不是DeepSeek的问题,是AI的通病。这标题多少有点带节奏了。chatgpt更早更多地制造数据垃圾,咋不好好说说
  • 有些人看见说DS的不好就应激,这态度就不对。AI造假这个问题是一定要重视的,作者举这些例子还没造成多大损失,上周我在B站看到一个做独立游戏的工作室,他们好像是第一次做游戏,规模很小,也没啥经验,花钱请画师画原画,游戏也做到快收尾了,结果上一批原画放出来后被玩家大量质疑是AI作画,指出很多不合理的地方,然后这个工作室就拿着画去找其它同行验证,结果就是AI作画,又去找画师对质,画师最后也承认了……但即使画师愿意做出赔偿这个工作室也陷入了巨大困境,他们很多工作都需要推倒重做,财力人力消耗都超过了预期。
    另外还有个重灾区就是大学,AI写作业,写论文在大学已经非常流行,且不论AI写的论文和学生结业水平的问题,如果论文里出现大量造假,那以后可真就是屎里挑金了,今天的学生笑嘻嘻,明天的学生包括教授面临的可能不止是查重,还得查AI……不仅学习环境会恶化,学术环境也会面临严峻考验。
  • 我们承认你说的都是事实,但是比起那些自媒体博主来说Deepseek的问题是个问题吗?自媒体放毒都是带目的性的,毒害和污染网络基本上都是Deepseek的千倍伤害好吗。
  • 京雀(装?)抑郁家里蹲
    全部楼层
    guan_17291217461099
    所以现在AI是不是已经能通过图灵测试了?
    其实还不能,比如DeepSeek里输入台湾,以前是会强制说对不起我还没学过这个;后来会强制说台湾是中国领土一部分,这些一涉及敏感词要么关闭对话要么会有强制性输出的设计导致全文对话自然性下降,能看出来是AI。

    输入梁文峰的名字也有类似效果。

    如果是ChatGPT,有一些外国人的名字也是敏感词,罗斯柴尔德家族当代继承人,说是可能侵犯名人隐私(可能当事人在欧洲申请了被遗忘权什么的,也可能以前错误的把某个名人和某个恐怖分子的名字混淆吃过官司)。

    不过这种外壳程序里的敏感词,如果改为API(应用程序接口)调用,就可能不处理了。

    但整体上AI说话的文风还是有套路模版的,能看出来AI味道,如ChatGPT3.5时代的强制辨证出优点和缺点的回答方式;DeepSeek动不动就说量子塌缩,量子纠缠,量子XX的科幻风格,还是能看出来的。
  • 关AI一毛钱事情,媒体连做最基本的事实核查都不做就瞎报道,AI缺少信息加权分析,以相关文章的多少来做事实基准分析写作。然后媒体继续不做事实核查继续报道能不多错吗?能不乱编吗?
  • 你当奴家是厦大的啊
    西方污染了,所以中国也必须污染,是这个意思吧?
             我的回答是,想要避免但不可避免。 今后互联网评论不会在有所谓的真实了。 聊天AI  能够利好的行业就是 公关类行业。

    未来互联网将会进一步圈层化,未来或许 私密类,聊天室内网站将会大行其道。
  • 这个问题我有话说。
    过去一年,我几乎是ChatGPT的重度用户,常常每四小时翻墙一次,以获得使用ChatGPT-4o的机会。当时我在想,为什么美国方面明明知道我并不是合法用户,仍然提供免费的使用机会呢?

    ChatGPT本质上是一个引擎,但由于各类用户的广泛使用,它积累了大量的用户经验。每次我向它提问,都会通过互动形成正向反馈。换句话说,我在程序的世界里扮演了试错者(debugger)的角色,或者更高层次的,贡献了我的专业知识,帮助它在特定领域积累了宝贵的经验。因此,任何大模型都需要提供免费使用的机会。那些收费的,大多数时候背后已经有企业提前布局。DeepSeek继承了ChatGPT的很多特性,我们不能多说,但这些背后存在的政治正确性和行业竞争,都是不容忽视的。

    从专业角度来看,如果没有人去试错、没有人去探索,DeepSeek就难以成功。百度和腾讯之所以处处提醒用户,他们为大家提供了专业领域的支持,不是为了鼓励文学创作,而是鼓励你们通过专业技术解决Google无法解决的问题。这背后的代价是显而易见的,因为你们不是第一,而是第二。实际上,这就是DeepSeek选择开源的原因。对于后来的参与者来说,试错的机会已经越来越少。无论引擎本身如何优秀,没有专业、高质量的输入,任何引擎都无法解决专业问题。

    我花费大量时间收集并向ChatGPT输入专业问题,得到了正确的回答,这让我意识到,DeepSeek缺乏在特定领域的“试错”机会——我的知识库很可能就是DeepSeek在这一领域的“迷踪拳”和“钥匙”。在专业领域,中国人往往帮助外国模型进行调试(因为外语文献更加丰富,中国专家都是投外语),而中国本土的引擎没有得到足够的调试支持,依赖中国人的调试力量仍然有限。今天,文本创作领域的混乱,正是缺乏专业判断机制的结果。大模型的开源机制决定了,每个模型能获得的专业知识都是有限的,这也是DeepSeek无法复制安卓系统开源成功的主要原因。如果DeepSeek的开源能真正促使大家贡献专业知识,那才算是真正的开源。否则,每一步都只是在为别人贡献经验。没有专业的投入,任何引擎都只是“治疗老年痴呆”的工具。
    我认为ChatGPT是解决专业问题的有效工具,而DeepSeek则做不到这一点。不是它做不到,而是像我这样专业的人,都在依赖外国的引擎来提升专业技能,而DeepSeek给我带来了太多“幻觉”,让我无法在有限的时间内取得实质性的突破。然而,如果我能够在ChatGPT上磨练好自己的技能,最终我的专业积累将帮助DeepSeek在我的领域取得成功。这就是自有模型的魅力所在。
    未来的教育竞争不再是记住多少公式或代码,而是能否在人与机器的共生中找到独特的价值坐标。当AI接管了知识搬运的工作,人类教育终于有机会回归本质:培养具有思考能力、创造力和鉴赏力的个体。专家的作用,不再是与机器比拼推理和创造的能力,而是通过独特的眼光来鉴定优劣,识别趋势。“海阔凭鱼跃,天空任鸟飞”,每个人都可以找到自己的定位。未来中国缺乏的,不仅是多少万AI人才,更多的是懂得依赖专业、开发专业的AI开发者,他们用自己的专业知识推动DeepSeek解决实际问题。如今在DeepSeek上奋斗的,大多是“小鱼小虾”;而真正的高手,大多在国外借助先进工具打造自己的“专业池”,等待DeepSeek的成功能助力他们的专业腾飞。我希望这一天能够早日到来。


0%(0)
0%(0)
绗� 鍚� (蹇呴€夐」): 瀵� 鐮� (蹇呴€夐」): 娉ㄥ唽鏂扮敤鎴�
标 题 (必选项):
内 容 (选填项):

娈佃惤鏍煎紡
瀛椾綋
瀛楀彿
实用资讯
北美最大最全的折扣机票网站
美国名厂保健品一级代理,花旗参,维他命,鱼油,卵磷脂,30天退货保证.买百免邮.
一周点击热帖 更多>>
1 濞戞挶鍊撳▎銏ゅ灳濠婂啯绂囧☉鏂款儔閸f悂宕抽妸鈶╁亾濠垫挾绀夐柛姘缁斿瓨绋夐鍕啂闁告艾楠告慨锟� 闁诲浚鍋呴悥锟�
2 閻℃帒鎳嶇粻顕€骞嗙€圭姾鏉介柨娑楄兌缁躲劑宕堕挊澶婂綃濞寸媴绲惧┃鈧☉鎾崇С缁酣寮垫径鎰幀缂傚牞鎷� 闁诲浚鍋呴悥锟�
3 闁告婢樼€规娊鎯冮崙锟�400闁艰櫕鍨濈粭澶愭嚄閼恒儱惟濞戞搩鍘煎ù妤呭礂椤撴繂鏁╅柡鍫濇惈閸わ拷 闁诲浚鍋呴悥锟�
4 濡炶鍓氶弻澶愬礂鐎n喗妗ㄥ☉鎾剁節瀵鏌屽鍛瀱闁煎厖绶ょ槐婵嬪触閸曨偁浜g紒鏃傚仒缁ㄣ倗鈧鎷� 闁诲浚鍋呴悥锟�
5 濞戞挸鎼浼村箥閹冨綘闂佹鍠氶悢鍡樼瑜戠粊顐⑩攦閹板墎绀夌紓鍥ч濞存绠涢銉ㄦ巢闁诲骏鎷� 闁诲浚鍋呴悥锟�
6 Space Showdown: USA vs China - 闁诲浚鍋呴悥锟�
7 缂傚洤楠搁崣姘閿濆棙绨氶柛娑滄閹洘绋夌弧锟�47闁挎稑鑻崢鏍р堪閳ヨ櫕瀵橀柛鐘插船閹虫鏌嗛敓锟� 闁诲浚鍋呴悥锟�
8 GE闁告粌鑻畵鍐╂償閿旂虎鍔紓鍐皺濞堟垿宕楅崗鍛壘闁革负鍔屽畵鍐╂償閿旂偓鏅稿ù婊庢箚4 闁诲浚鍋呴悥锟�
9 闁瑰瓨鍨瑰ú鍧楀箳閵夆晜锛朑rok 濞寸姵鐗曞Σ鑽ょ箔閹达絽缂氶弶鈺婁簼濡叉悂宕€n亝绀€濞存粣鎷� 闁诲浚鍋呴悥锟�
10 闁告粌鐡楻OK 3 閻犱降鍔忛鎴﹀础閺夊灝顔婂┑鈥冲€归悘澶愬箮婵犲嫮鍩¢柛娆愬灦婵拷 闁诲浚鍋呴悥锟�
一周回复热帖
1 濞戞搩鍘煎ù妤佸緞瑜岀粩瀵稿緤鏉堚晜鐣遍柛妯烘瑜板爼宕仦鐐€柛鏍ㄧ墳椤斺偓濞戞搩鍘煎ù妤呮嚊閿燂拷 闁诲浚鍋呴悥锟�
2 Space Showdown: USA vs China - 闁诲浚鍋呴悥锟�
3 GE闁告粌鑻畵鍐╂償閿旂虎鍔紓鍐皺濞堟垿宕楅崗鍛壘闁革负鍔屽畵鍐╂償閿旂偓鏅稿ù婊庢箚4 闁诲浚鍋呴悥锟�
4 Sixth-Gen Fighter Showdown: US 闁诲浚鍋呴悥锟�
5 缂傚洤楠稿ù妤呭礆闁稓鐟濆ù锝呯箳濞堟垹鎷归崨濠冾潨闂侇偄妫楀Ο濠囨晬鐏炲墽澹岄柡鍫墮鐢偊宕堕敓锟� 闁诲浚鍋呴悥锟�
6 缂傚啯鍨崇粭鍌炴倻椤撯槅鍞存慨婵撴嫹-36濞戞挸顦ぐ鍌涚▕鐎b晝顏卞ù锝堟硶閺併倝寮€n厽绁柣鏍垫嫹 闁诲浚鍋呴悥锟�
7 濞戞搩鍘煎畵鍐儗閵夈劎妲曢柛鎺戞閻℃瑩寮界粙璺ㄥ闁荤偛妫楁惔閿嬬▔瀹ュ懏鍊遍柨娑虫嫹 濞戞柨顑勭花锟� 闁诲浚鍋呴悥锟�
8 闁告粌鐡楻OK 3 閻犱降鍔忛鎴﹀础閺夊灝顔婇柟璺猴功閻栨椽宕i幋鐐差潓閻犙冨瑜帮拷 闁诲浚鍋呴悥锟�
9 闂傗偓閸喚鍘旈柛锔哄妺缁绘岸宕¢陇鍘柛妤€楠搁崯姗€鎳撻弴鐔哥€柡鍕凹缁楀鎮锝囧煑闁绘鎷� 闁诲浚鍋呴悥锟�
10 濞戞挸楠稿畵鍐╂償閿旇姤琚遍柡鍌氭处濡叉垿宕ョ仦缁㈠妱闁告瑦鍨甸惈宥夋儍閸曨剚笑濞寸厧锕ュ﹢鏇㈡⒓閿燂拷 闁诲浚鍋呴悥锟�
历史上的今天:回复热帖
2024: 胡哥任内收回黄岩岛,傻逼x-file崇拜的
2022: 司马南:美国为什么无法“联俄抗中”?
2022: 湘云 (旧文重贴)
2020: 11国出现死亡病例,美国病死率居高
2020: 金正恩胞妹金与正罕见谈话谴责韩国,韩