Latest posts

开源项目趋势周刊第214期(20241020)

"星"推荐:CLIP(对比语言-图像预训练)是一个在各种(图像、文本)对上训练的神经网络。可以用自然语言指示它在给定图像的情况下预测最相关的文本片段,而无需直接对任务进行优化,这与 GPT-2 和 3 的零样本功能类似。我们发现,CLIP 在 ImageNet "zero-shot" 上的性能与原始 ResNet50 不相上下,而无需使用任何原始的 128 万个标注示例,从而克服了计算机视觉领域的几大挑战。——出自《CLIP》


To the top