[yolov11改进系列]使用ConvNeXtV2替换backbone用于增强特征学习和多样性的python源码+训练源码

article/2025/6/26 20:33:14

【ConvNeXtV2介绍】

在介绍 ConvNeXt V2 之前,让我们对 ConvNeXt 做一下简单的回顾:ConvNeXt 同样是 Meta AI 的工作,它的 motivation 是重新审视设计空间,测试纯卷积神经网络(ConvNet)的极限,探索纯卷积神经网络在计算机视觉任务中所能达到的性能。虽然在计算机视觉领域中,Transformers 已经在多个任务中超越了卷积神经网络,但是 ConvNeXt 论文认为卷积神经网络具有天然的归纳偏置(inductive bias)性质,因此仍然有很大的潜力可以挖掘。

作者通过逐步将标准 ResNet 现代化,测试了一系列的设计决策,发掘其中有用的关键组件,最终提出了一系列名为 ConvNeXt 的纯卷积神经网络,并在多个视觉任务上进行了评估,取得了与 Vision Transformer 相当的准确性和可扩展性,同时保持了标准卷积神经网络的简单和高效性。

简单来说,ConvNeXt 从宏观和微观两个层面对卷积神经网络和 Transformer 进行了比较和分析。在宏观层面上,作者发现了一些在卷积网络上可以稳定 work 的框架与技术,如 ResNeXt、反向瓶颈、大卷积核等,这些宏观调整有助于提高卷积网络的性能。在微观层面上,作者还研究了激活函数和归一化层等方面的不同设计选择,例如将 BatchNorm 替换为 LayerNorm 等。最终,作者提出了一系列纯卷积神经网络模型,具体的尝试如下图所示,一句话来说,即 Transformer 或者 Swin-Transformer 怎么做,我也在 ConvNeXt 上试着做对应的调整:

ConvNeXt V2

ConvNeXt V2 是基于现代 ConvNets 并添加了自监督学习技术的结果。ConvNeXt V2 在 ConvNeXt 的基础上增加了两个创新点(一个 framework 和一个 technique):全卷积掩码自编码器(fully convolutional masked autoencoder, FCMAE)和全局响应归一化(global response normalization, GRN)。

这种自监督学习技术和架构改进的协同设计(Co-design)共同创造了一个新的模型系列 ConvNeXt V2,它在包括 ImageNet 分类、COCO 检测和 ADE20K 分割在内的各种识别基准测试中显着提高了纯 ConvNets 的性能。

同时,作者还在 GitHub上 提供了各种大小的预训练 ConvNeXt V2 模型,范围从高效的 3.7M 参数 Atto 模型到 650M 的 Huge 模型。如下图所示,这里也展示了论文题目中提到的强大的模型缩放能力(Scaling),即在所有模型大小的监督训练的 baseline(ConvNeXt V1)上,ConvNeXt V2 的性能都得到了一致的改进。

前面提到,ConvNeXt V2 主要有两个创新点:一是提出了一种全卷积掩码自编码器(FCMAE)框架;二是提出了一种全局响应归一化(GRN)层。

下面让我们分别来简单地过一下它们的原理和效果,并看看新的训练框架(learning framework)与结构改进 (architectural improvement)同时考虑后结合(Co-design)的进一步提升。

全卷积掩码自编码器(FCMAE)

全卷积掩码自编码器(FCMAE)框架是一种基于卷积神经网络的自监督学习方法,它的思想是在输入图像上随机掩盖一些区域,然后让模型尝试恢复被掩盖的部分。这样可以迫使模型学习到图像的全局和局部特征,从而提高其泛化能力。

FCMAE 框架与传统的掩码自编码器(MAE)框架相比,有两个优势:一是它使用了全卷积结构,而不是使用全连接层来生成掩码和重建图像,这样可以减少参数量和计算量,同时保持空间信息;二是它使用了多尺度掩码策略,而不是使用固定大小的掩码,这样可以增加模型对不同尺度特征的感知能力。

下表展示了在实验中一步步寻找 FCMAE 中最优解码器的过程:

Table 1. MAE decoder ablation experiments with ConvNeXt-Base on ImageNet-1K. We report fine-tuning (ft) accuracy (%). The pretraining schedule is 800 epochs. In the decoder design exploration, the wall-clock time is benchmarked on a 256-core TPU-v3 pod using JAX. The speedup is relative to the UNet decoder baseline. Our final design choices employed in the paper are marked in gray .

在这些实验中,研究人员对不同的解码器进行了比较,在最终的微调阶段的准确率作为评估标准。表格中展示了使用 ConvNeXt-Base 进行实验的结果,其中包括使用不同类型解码器的精度。最终,作者选择了最优的解码器用于结合 FCMAE 来训练最终的 ConvNeXt V2 模型。

全局响应归一化(GRN)

全局响应归一化(GRN)层是一种新的卷积神经网络层,它的作用是在每个通道上对特征图进行归一化处理,从而增强通道间的特征竞争。GRN 层与传统的批量归一化(BN)层相比,有两个优势:一是它不需要额外的参数,因为它仅仅是对特征图进行归一化处理;二是它可以处理任意大小的 batch,而 BN 层则需要根据 batch 大小动态调整参数,计算量较大。

GRN 层的实现非常简单,只需要三行代码,并且没有可学习的参数。具体来说,GRN 层可以分为三个步骤:全局特征聚合、特征归一化和特征校准。在全局特征聚合步骤中,我们使用 L2 范数对每个通道上的特征图进行聚合,得到一个聚合后的向量。在特征归一化步骤中,我们使用标准除法归一化函数对聚合后的向量进行归一化。在特征校准步骤中,我们使用归一化后的向量对原始的特征图进行校准。整个 GRN 层的计算量非常小,因此可以很容易地添加到卷积神经网络中,从而增强特征竞争,提高模型性能。

作者发现 ConvNeXt V1 模型存在特征崩溃问题,即在通道之间存在冗余激活(死亡或饱和神经元)。为了解决这个问题,作者引入了一种新的归一化技术:全局响应归一化(GRN)层,作用于每个 patch 的特征,以促进特征多样性,用于解决特征崩溃问题。

具体来说,下图展示了作者对每个特征通道的激活图(activation map)进行可视化的结果,其中每张图片选取了 64 个通道,直观地证明了 ConvNeXt V1 存在特征崩溃问题,并进一步展示了使用 GRN 后的 ConvNeXt V2 对这一问题的缓解。

"We visualize the activation map for each feature channel in small squares. For clarity, we display 64 channels in each visualization. The ConvNeXt V1 model suffers from a feature collapse issue, which is characterized by the presence of redundant activations (dead or saturated neurons) across channels. To fix this problem, we introduce a new method to promote feature diversity during training: the global response normalization (GRN) layer. This technique is applied to high-dimensional features in every block, leading to the development of the ConvNeXt V2 architecture."

同时,为了进一步验证 GRN 的效果,论文在下表中展示了使用 ConvNeXt-Base 模型进行的一系列消融实验,来研究如何利用全局响应归一化(GRN)技术来增加特征的多样性,从而提高模型的性能。

Table 2. GRN ablations with ConvNeXt-Base. We report fine-tuning accuracy on ImageNet-1K. Our final proposal is marked in gray .

表格中展示了不同的实验情况,包括不同的特征归一化方法、特征加权方法以及在预训练和微调阶段中使用 GRN 的效果。实验结果表明,GRN 可以有效地提高模型的性能,特别是在预训练阶段。同时,GRN 与其他常见的特征归一化方法相比,也具有更好的效果。

Co-design Matters

既然 FCMAE 与 GRN 都能带来一定程度的提升,那么它们一起使用会带来什么样的结果呢?这就是论文中关于“co-designing”相关实验要展示的内容。

具体来说,如下表所示:作者在实验中发现,在不修改模型结构的情况下,使用 FCMAE 框架对表征学习质量的影响有限。同样,新的 GRN 层对监督设置下的性能影响也相当小。然而,两者的结合使微调性能得到了明显的改善。这支持了前面提到的模型和学习框架应该一起考虑(both the model and learning framework should be considered together)的想法,特别是在涉及到自监督学习时。

Table 3. Co-design matters. When the architecture and the learning framework are co-designed and used together, masked image pre-training becomes effective for ConvNeXt. We report the finetuning performance from 800 epoch FCMAE pre-trained models. The relative improvement is bigger with a larger model.

实验结果

在实验中,使用 FCMAE 框架和 GRN 层的 ConvNeXt V2 模型在不同的任务上表现出了显著的性能提升,包括 ImageNet 分类、COCO 检测和 ADE20K 分割。

首先是必须要有的 ImageNet-1k 上的结果:

Table 4. Comparisons with previous masked image modeling approaches. The pre-training data is the IN-1K training set. All self-supervised methods are benchmarked by the end-to-end finetuning performance with an image size of 224. We underline the highest accuracy for each model size and bold our best results.

如上表所示:ConvNeXt V2 + FCMAE 在所有的模型规模上都优于用 SimMIM 预训练的 Swin Transformer。同时,与用 MAE 预训练的 ViT 相比,ConvNeXt V2 在大模型体系中的表现相似,并且使用的参数少得多(198M vs 307M)。然而,更大的模型体系中,ConvNeXt V2 是略微落后于其他方法的。作者认为这可能是因为一个巨大的 ViT 模型可以从自监督的预训练中获益更多。

文中还介绍了 ImageNet-22K 的 intermediate fine-tuning(中间微调)结果:intermediate fine-tuning 的训练过程包括三个步骤:1. FCMAE 预训练;2. ImageNet-22K 微调;3. ImageNet1K 微调。结果如下表所示:

Table 5. ImageNet-1K fine-tuning results using IN-21K labels. The ConvNeXt V2 Huge model equipped with the FCMAE pretraining outperforms other architectures and sets a new state-of-the-art accuracy of 88.9% among methods using public data only.

同时,预训练好的 ConvNeXt V2 作为 backbone 连接 Mask R-CNN 做 head 在 COCO 上目标检测和实例分割;与结合 Uper-Net 在 ADE20k 上进行语义分割,ConvNeXt V2 同样表现出了优秀的效果。

Table 6. COCO object detection and instance segmentation results using Mask-RCNN. FLOPS are calculated with image size (1280, 800). All COCO fine-tuning experiments rely on ImageNet-1K pre-trained models.

Table 7. ADE20K semantic segmentation results using UPerNet. FLOPS are based on input sizes of (2048, 512) or (2560, 640). All ADE20K fine-tuning experiments rely on ImageNet-1K pre-trained model except FCMAE,22K ft, in which case the ImageNet-1K pre-training is followed by ImageNet-22K supervised fine-tuning.

ConvNeXtV2是一种新型的 卷积神经网络Q架构,它融合了自监督学习技术和架构改进,特别是加入了全卷积掩码自编码器框架和全局响应归一化(GRN)层。我将其替换YOLOv11的特征提取网络,用于提取更有用的特征。一方面利用全卷积掩码自动编码器在训练时优化特征学习,减少模型对大规模标注数据的依赖;另一方面,通过全局响应归一化层增强特征竞争,缓解特征坍塌问题,提高特征多样性。

 【yolov11框架介绍】

2024 年 9 月 30 日,Ultralytics 在其活动 YOLOVision 中正式发布了 YOLOv11。YOLOv11 是 YOLO 的最新版本,由美国和西班牙的 Ultralytics 团队开发。YOLO 是一种用于基于图像的人工智能的计算机模

Ultralytics YOLO11 概述

YOLO11 是Ultralytics YOLO 系列实时物体检测器的最新版本,以尖端的精度、速度和效率重新定义了可能性。基于先前 YOLO 版本的令人印象深刻的进步,YOLO11 在架构和训练方法方面引入了重大改进,使其成为各种计算机视觉任务的多功能选择。

Key Features 主要特点

  • 增强的特征提取:YOLO11采用改进的主干和颈部架构,增强了特征提取能力,以实现更精确的目标检测和复杂任务性能。
  • 针对效率和速度进行优化:YOLO11 引入了精致的架构设计和优化的训练管道,提供更快的处理速度并保持准确性和性能之间的最佳平衡。
  • 使用更少的参数获得更高的精度:随着模型设计的进步,YOLO11m 在 COCO 数据集上实现了更高的平均精度(mAP),同时使用的参数比 YOLOv8m 少 22%,从而在不影响精度的情况下提高计算效率。
  • 跨环境适应性:YOLO11可以无缝部署在各种环境中,包括边缘设备、云平台以及支持NVIDIA GPU的系统,确保最大的灵活性。
  • 支持的任务范围广泛:无论是对象检测、实例分割、图像分类、姿态估计还是定向对象检测 (OBB),YOLO11 旨在应对各种计算机视觉挑战。

​​

与之前的版本相比,Ultralytics YOLO11 有哪些关键改进?

Ultralytics YOLO11 与其前身相比引入了多项重大进步。主要改进包括:

  • 增强的特征提取:YOLO11采用改进的主干和颈部架构,增强了特征提取能力,以实现更精确的目标检测。
  • 优化的效率和速度:精细的架构设计和优化的训练管道可提供更快的处理速度,同时保持准确性和性能之间的平衡。
  • 使用更少的参数获得更高的精度:YOLO11m 在 COCO 数据集上实现了更高的平均精度(mAP),参数比 YOLOv8m 少 22%,从而在不影响精度的情况下提高计算效率。
  • 跨环境适应性:YOLO11可以跨各种环境部署,包括边缘设备、云平台和支持NVIDIA GPU的系统。
  • 支持的任务范围广泛:YOLO11 支持多种计算机视觉任务,例如对象检测、实例分割、图像分类、姿态估计和定向对象检测 (OBB)

【测试环境】

windows10 x64

ultralytics==8.3.0

torch==2.3.1

【改进流程】

1. 新增ConvNeXtV2.py实现模块(代码太多,核心模块源码请参考改进步骤.docx)然后在同级目录下面创建一个__init___.py文件写代码

from .ConvNeXtV2. import *

2. 文件修改步骤

修改tasks.py文件

创建模型配置文件

yolo11-ConvNeXtV2.yaml内容如下:

# Ultralytics YOLO 🚀, AGPL-3.0 license
# YOLO11 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect# Parameters
nc: 80 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolo11n.yaml' will call yolo11.yaml with scale 'n'# [depth, width, max_channels]n: [0.50, 0.25, 1024] # summary: 319 layers, 2624080 parameters, 2624064 gradients, 6.6 GFLOPss: [0.50, 0.50, 1024] # summary: 319 layers, 9458752 parameters, 9458736 gradients, 21.7 GFLOPsm: [0.50, 1.00, 512] # summary: 409 layers, 20114688 parameters, 20114672 gradients, 68.5 GFLOPsl: [1.00, 1.00, 512] # summary: 631 layers, 25372160 parameters, 25372144 gradients, 87.6 GFLOPsx: [1.00, 1.50, 512] # summary: 631 layers, 56966176 parameters, 56966160 gradients, 196.0 GFLOPs# 下面 [-1, 1, convnextv2_atto, [0.25]] 参数位置的0.25是通道放缩的系数, YOLOv11N是0.25 YOLOv11S是0.5 YOLOv11M是1. YOLOv11l是1 YOLOv11是1.5大家根据自己训练的YOLO版本设定即可.
# 本文支持版本有 'convnextv2_atto', 'convnextv2_femto', 'convnext_pico', 'convnextv2_nano', 'convnextv2_tiny', 'convnextv2_base', 'convnextv2_large', 'convnextv2_huge'
# YOLO11n backbone
backbone:# [from, repeats, module, args]- [-1, 1, convnextv2_atto, [0.5]] # 0-4 P1/2 这里是四层- [-1, 1, SPPF, [1024, 5]] # 5- [-1, 2, C2PSA, [1024]] # 6# YOLO11n head
head:- [-1, 1, nn.Upsample, [None, 2, "nearest"]]- [[-1, 3], 1, Concat, [1]] # cat backbone P4- [-1, 2, C3k2, [512, False]] # 9- [-1, 1, nn.Upsample, [None, 2, "nearest"]]- [[-1, 2], 1, Concat, [1]] # cat backbone P3- [-1, 2, C3k2, [256, False]] # 12 (P3/8-small)- [-1, 1, Conv, [256, 3, 2]]- [[-1, 9], 1, Concat, [1]] # cat head P4- [-1, 2, C3k2, [512, False]] # 15 (P4/16-medium)- [-1, 1, Conv, [512, 3, 2]]- [[-1, 6], 1, Concat, [1]] # cat head P5- [-1, 2, C3k2, [1024, True]] # 18 (P5/32-large)- [[12, 15, 18], 1, Detect, [nc]] # Detect(P3, P4, P5)
3. 验证集成

使用新建的yaml配置文件启动训练任务:

from ultralytics import YOLOif __name__ == '__main__':model = YOLO('yolo11-ConvNeXtV2.yaml')  # build from YAML and transfer weights# Train the modelresults = model.train(data='coco128.yaml',epochs=100, imgsz=640, batch=8, device=0, workers=1, save=True,resume=False)

成功集成后,训练日志中将显示ConvNeXtV2模块的初始化信息,表明已正确加载到模型中。

【训练说明】

第一步:首先安装好yolov11必要模块,可以参考yolov11框架安装流程,然后卸载官方版本pip uninstall ultralytics,最后安装改进的源码pip install .
第二步:将自己数据集按照dataset文件夹摆放,要求文件夹名字都不要改变
第三步:分别打开train.py,coco128.yaml和模型参数yaml文件修改必要的参数,最后执行python train.py即可训练

【提供文件】

├── [官方源码]ultralytics-8.3.0.zip
├── train/
│   ├── coco128.yaml
│   ├── dataset/
│   │   ├── train/
│   │   │   ├── images/
│   │   │   │   ├── firc_pic_1.jpg
│   │   │   │   ├── firc_pic_10.jpg
│   │   │   │   ├── firc_pic_11.jpg
│   │   │   │   ├── firc_pic_12.jpg
│   │   │   │   ├── firc_pic_13.jpg
│   │   │   ├── labels/
│   │   │   │   ├── classes.txt
│   │   │   │   ├── firc_pic_1.txt
│   │   │   │   ├── firc_pic_10.txt
│   │   │   │   ├── firc_pic_11.txt
│   │   │   │   ├── firc_pic_12.txt
│   │   │   │   ├── firc_pic_13.txt
│   │   └── val/
│   │       ├── images/
│   │       │   ├── firc_pic_100.jpg
│   │       │   ├── firc_pic_81.jpg
│   │       │   ├── firc_pic_82.jpg
│   │       │   ├── firc_pic_83.jpg
│   │       │   ├── firc_pic_84.jpg
│   │       ├── labels/
│   │       │   ├── firc_pic_100.txt
│   │       │   ├── firc_pic_81.txt
│   │       │   ├── firc_pic_82.txt
│   │       │   ├── firc_pic_83.txt
│   │       │   ├── firc_pic_84.txt
│   ├── train.py
│   ├── yolo11-ConvNeXtV2.yaml
│   └── 训练说明.txt
├── [改进源码]ultralytics-8.3.0.zip
├── 改进原理.docx
└── 改进流程.docx

 【常见问题汇总】
问:为什么我训练的模型epoch显示的map都是0或者map精度很低?
回答:由于源码改进过,因此不能直接从官方模型微调,而是从头训练,这样学习特征能力会很弱,需要训练很多epoch才能出现效果。此外由于改进的源码框架并不一定能够保证会超过官方精度,而且也有可能会存在远远不如官方效果,甚至精度会很低。这说明改进的框架并不能取得很好效果。所以说对于框架改进只是提供一种可行方案,至于改进后能不能取得很好map还需要结合实际训练情况确认,当然也不排除数据集存在问题,比如数据集比较单一,样本分布不均衡,泛化场景少,标注框不太贴合标注质量差,检测目标很小等等原因
【重要说明】
我们只提供改进框架一种方案,并不保证能够取得很好训练精度,甚至超过官方模型精度。因为改进框架,实际是一种比较复杂流程,包括框架原理可行性,训练数据集是否合适,训练需要反正验证以及同类框架训练结果参数比较,这个是十分复杂且漫长的过程。


http://www.hkcw.cn/article/dVBEFgBAEx.shtml

相关文章

持续学习新突破!登上nature!

强化学习之父在Nature发表持续学习新成果!《Nature》杂志最新刊登了一篇名为《Loss of plasticity in deep continual learning》的研究论文,标志着持续学习领域的一个新里程碑。这项研究提出了一种创新算法一一持续反向传播(Continual Backpropagation)&#xff0c…

兵马俑修复曾被指需要半年时间 实际难度远超预期

5月30日,陕西西安秦始皇兵马俑博物馆内发生了一起意外事件。一名男子进入三号坑中,躺在地面上,旁边有倒下的陶俑以及陶俑残片。专家表示,损坏的兵马俑修复起来非常困难,甚至比刚出土时的修复和拼接还要难。苏州考古博物馆馆长、苏州考古所所长程义解释说,兵马俑刚被发掘出…

“内鬼”李卓勋任上被查 涉嫌严重违纪违法

黑龙江省哈尔滨市纪委监委第九审查调查室主任李卓勋因涉嫌严重违纪违法,正在接受纪律审查和监察调查。这一消息由“清廉龙江”于5月30日发布。李卓勋出生于1973年11月,是黑龙江双城人。他于1994年6月参加工作,并在1997年6月加入中国共产党。李卓勋毕业于省委党校法律专业,在…

在哈佛演讲的25岁中国女生发声 签证不确定性影响未来规划

5月30日,在哈佛大学毕业典礼上,中国学生蒋雨融穿着中国传统服饰发表了动情演讲。25岁的蒋雨融来自青岛,获得了哈佛大学国际发展方向的公共行政硕士学位。她提到,特朗普政府威胁遣返学生签证持有者,给她的未来带来了极大不确定性。蒋雨融开始考虑在海外从事国际发展工作。她…

vm文件传输

1、安装VMware Tool工具,然后直接拖拉文件进虚拟机里(menu->vn->)。 2、安装VMware Tool工具后设置共享目录。 3、Serv-Uflashfxp 架设FTP服务器,作为虚拟机与主机之间传输文件。

媒体:欧冠决赛边路是争夺焦点 双雄边路对决引发关注

北京时间6月1日凌晨,本赛季欧洲足坛的压轴大戏如期上演,国际米兰和巴黎圣日耳曼争夺欧冠冠军。两队赛季初都不被看好,但最终在慕尼黑安联球场相遇,双方都志在必得。登贝莱让所有欧冠对手头疼。边路成为比赛的关键点。尽管两队此前未曾交手,但这个赛季的欧冠征程已让彼此印…

XCTF-web-Cat

尝试输入127.0.0.1 尝试127.0.0.1;ls 试了很多,都错误,尝试在url里直接输入,最后发现输入%8f报错 发现了Django和DEBUG 根据Django的目录,我们使用进行文件传递 尝试?url/opt/api/database.sqlite3,找到了flag

YOLO12 改进|融入 Mamba 架构:高效视觉状态空间模块 EVSS 模块,模糊图像清晰化与特征增强, 提升小目标 多尺度

在图像去模糊领域,卷积神经网络(CNNs)因卷积操作的局部性和空间不变性,难以捕捉全局信息和空间变化特性;Transformer 虽能通过自注意力机制建模长距离依赖,但计算复杂度随分辨率呈二次增长,不适…

国足将全员奔赴印尼客场 备战关键之战

中国男足计划于6月2日下午从上海出发,前往印尼雅加达,准备参加6月5日18强赛第9轮对阵印尼队的关键比赛。随着出征时间临近,国足的训练量有所减少,重点转向针对对手的防守策略。教练组提醒队员们在客场比赛中要尽可能控球,同时减少犯规,以免被裁判抓住机会。此前受伤的汪士…

安装CUDA:AI大模型软件实现GPU加速(2025最新版)

本文主要介绍在Windows系统中,针对NVIDIA GeForce RTX 50 系列显卡,安装CUDA 12.9版本,实现大模型软件加速的方法。 NVIDIA GeForce RTX 旧版的显卡也都支持CUDA,只是版本有所不同。由于AMD的ROCm在Windows中运行需要WSL&#xff…

女子与被执行人姓名同音 屡被法院找 身份误认影响生活

近日,河北省廊坊市的颜女士反映,因身份信息被错列为一起经济纠纷案件被执行人,两年内多次被廊坊市广阳区人民法院核查、传唤。即使她多次澄清,执行局工作人员仍携民事判决书到其工作单位调查。颜女士认为法院工作人员执行程序违法,并对其身心、名誉造成损害。她通过多种方…

田径亚锦赛女子400米栏莫家蝶夺冠 完美逆袭亚洲纪录保持者

5月31日,2025年亚洲田径锦标赛迎来最后一个比赛日的争夺。广东跨栏名将莫家蝶在女子400米栏决赛中以55秒31的成绩夺得冠军,并创造了今年亚洲最佳成绩。这是中国田径继2005年黄潇潇之后时隔20年再度收获该项目的亚洲冠军。16岁的陈妤颉在女子200米决赛中以22秒97的成绩摘得金牌…

河北“狗王”海外爆火 土狗成全球网红

近日,河北承德一只名叫“长毛”的土狗因轻松拿捏犬群而全球爆红,被外国网友狂赞为“中国狗王”。其视频在YouTube、TikTok等平台累计播放量突破3亿次,全球社交平台上掀起了现象级传播浪潮,衍生出超过20种语言的二次创作内容。国外粉丝甚至将“长毛”的形象印在T恤上,并为它…

大量西瓜被扔进鱼塘喂鱼?当地回应 供大于求致价格跳水

近日,有博主发布视频称广西崇左扶绥县的西瓜价格大幅下跌,部分瓜农将西瓜扔进鱼塘喂鱼,甚至有几万斤西瓜烂在地里。5月30日,扶绥县经济作物站工作人员表示,网传视频中被扔进鱼塘的主要是尾瓜和次瓜,这些西瓜质量不好,无法销售,因此用这种方式处理。当地政府正在积极寻找…

俄乌第二轮会谈能否打破僵局 停火条件成焦点

当地时间5月30日,俄罗斯总统新闻秘书佩斯科夫表示,俄罗斯代表团将前往伊斯坦布尔,并准备好在6月2日与乌克兰开启第二轮谈判。即将举行的第二轮俄乌谈判中,核心问题仍然是停火。北京外国语大学国际关系学院教授王朔指出,约半个月前的首轮直接谈判因双方意见分歧未能取得实质…

韩国大选最大的变数是什么 候选人合并成关键

韩国第21届总统选举投票将于6月3日举行。尽管共同民主党候选人李在明目前支持率领先,但选情仍充满变数。随着大选进入最后倒计时,国民力量党总统候选人金文洙和改革新党候选人李俊锡的支持率双双上升,两者支持率之和已接近李在明。保守阵营能否通过推举单一候选人实现逆转成…

截屏精灵:轻松截屏,高效编辑

在移动互联网时代,截图已经成为我们日常使用手机时的一项基本操作。无论是记录重要信息、分享有趣内容,还是进行学习和工作,一款好用的截图工具都能极大地提升我们的效率。截屏精灵就是这样一款功能强大、操作简单的截图工具,它不…

美对C919出手 打得越狠中国越强 加速自主研发进程

近日,有消息指出美国政府暂停了部分允许美国公司向中国商用飞机有限责任公司(中国商飞)出售产品和技术的许可证。对此,香港《南华早报》援引分析称,虽然短期内这可能推迟中国喷气发动机的国产化进程,但任何挫折都只会坚定中国自主自强的决心。分析人士认为,中国将在未来…

世界海拔最高的龙舟赛在哪里 高原竞渡创纪录

今天是端午节,全国各地都掀起了赛龙舟的热潮。在西藏拉萨,2025年西藏自治区端午节牛皮船(龙舟)赛创造了世界海拔最高的龙舟赛纪录,比赛场地海拔高度为3645.9米,这一成就得到了世界纪录认证机构(WRCA)的认可。来自全国各地的160名选手组成10支龙舟队伍和20支牛皮船队伍,…

媒体:精神病患者是如何“入坑”的 法律责任待鉴定

5月31日,西安市公安局临潼分局发布警情通报,5月30日,孙某进入兵马俑景区参观时,翻越遗址坑护栏及防护网跳至三号坑内推拉陶俑,造成两尊铠甲武士俑不同程度损坏。目前,孙某已被公安机关控制,经查,孙某患有精神疾病,案件正在进一步办理中。千年国之瑰宝遭此横祸,让人痛…