English
全部
搜索
图片
视频
地图
资讯
更多
购物
航班
旅游
笔记本
报告不当内容
请选择下列任一选项。
无关
低俗内容
成人
儿童性侵犯
时长
全部
短(小于 5 分钟)
中(5-20 分钟)
长(大于 20 分钟)
日期
全部
过去 24 小时
过去一周
过去一个月
去年
清晰度
全部
低于 360p
360p 或更高
480p 或更高
720p 或更高
1080p 或更高
源
全部
Dailymotion
Vimeo
Metacafe
Hulu
VEVO
Myspace
MTV
CBS
Fox
CNN
MSN
价格
全部
免费
付费
清除筛选条件
安全搜索:
中等
严格
中等(默认)
关闭
筛选器
Knowledge Distillation: Principles, Algorithms, Applications
2022年7月22日
neptune.ai
What is Knowledge distillation? | IBM
2024年4月16日
ibm.com
0:28
201 reactions · 41 shares | Microsoft and CMU researchers have begun
…
已浏览 1.4万 次
1 个月前
Facebook
Microsoft Research
10:47
Image Classification with Deep Learning
2023年11月28日
mathworks.com
1:09:36
Zero-Shot Detection via Vision and Language Knowledge Distillation
…
2021年10月24日
Microsoft
1:58
ICVGIP 2025 Paper ID 240 - Lightweight Models for Classificat
…
已浏览 3 次
1 个月前
YouTube
ICVGIP2025
4:28
Logit-Based Knowledge Distillation for Heterogeneous Medical Image
…
已浏览 4 次
1 个月前
YouTube
SJJB
5:10
Bridging the Knowledge Distillation Gap in Large Language Models
已浏览 1 次
2 个月之前
YouTube
Trần Ngọc Duy Ánh BV Đa Khoa Quốc Tế Hải …
0:53
Artificial Intelligence | AI on Instagram: "Knowledge distillatio
…
已浏览 4744 次
2 个月之前
Instagram
getintoai
DINO (Distillation with No Labels) is a self-supervised knowledge distil
…
2 个月之前
Facebook
Artificial Intelligence | AI
[PDF] Distilling the Knowledge in a Neural Network | Semantic Scholar
2015年3月9日
semanticscholar.org
Knowledge Distillation with Perturbed Loss: From a Vanilla Te
…
2024年8月24日
acm.org
Balanced Knowledge Distillation with Contrastive Learning for Doc
…
2023年8月9日
acm.org
Prototype-based Selective Knowledge Distillation for Zero-Sh
…
2022年10月10日
acm.org
Knowledge distillation is a useful technique to build smaller high-pe
…
已浏览 5905 次
2024年3月10日
TikTok
rajistics
Knowledge Distillation, Model Ensemble and Its Application on V
…
已浏览 909 次
2022年1月24日
YouTube
2d3d.ai
Exploring Inconsistent Knowledge Distillation for Object Detection wi
…
2023年10月27日
acm.org
Bit-mask Robust Contrastive Knowledge Distillation for Unsupe
…
2024年5月13日
acm.org
FedNKD: A Dependable Federated Learning Using Fine-tuned Rando
…
2022年6月28日
acm.org
EfficientML.ai Lecture 9 - Knowledge Distillation (MIT 6.5940, Fall 2023)
已浏览 1万 次
2023年10月6日
YouTube
MIT HAN Lab
Unbiased Knowledge Distillation for Recommendation | Proceedings o
…
2024年6月26日
acm.org
PR-297: Training Data-efficient Image Transformers & Distillation
…
已浏览 7503 次
2021年1月10日
YouTube
JinWon Lee (DeepTube)
Multimodal Learning with Incomplete Modalities by Knowled
…
2020年8月20日
acm.org
Ensembled CTR Prediction via Knowledge Distillation | Proceedin
…
2020年10月19日
acm.org
Exploring Feature-based Knowledge Distillation for Recommender Syst
…
9 个月之前
acm.org
Lecture 10 - Knowledge Distillation | MIT 6.S965
已浏览 4800 次
2022年10月31日
YouTube
MIT HAN Lab
1:00
Rajiv Shah on Instagram: "Knowledge distillation helps mak
…
已浏览 8786 次
10 个月之前
Instagram
rajistics
4:22
Evaluation Oriented Knowledge Distillation for Deep Face Recogni
…
已浏览 49 次
2022年7月6日
bilibili
人工智能基地2
56:28
knowledge distillation
已浏览 54 次
2024年1月23日
bilibili
脆皮大糊涂
23:45
知识蒸馏 |Distilling the Knowledge in a Neural Network
已浏览 1.5万 次
2023年11月20日
bilibili
Enzo_Mi
观看更多视频
更多类似内容
反馈