南京理工大学智能媒体分析实验室

Intelligent Media Analysis Group (IMAG), School of Computer Science, Nanjing University of Science and Technology

代龙泉

2015年博士毕业于中科院自动化所模式识别国家重点实验室;研究方向为计算机视觉、机器学习;获得3项发明专利并在相关领域国际学术会议和国际期刊上发表文章 10 余篇,包括第一作者在TIP、TCSVT 等期刊和 ICCV、CVPR、NeurIPS等会议;是TIP、TNNSL、TCSVT、ICCV、ECCV、CVPR 等多个期刊和会议的审稿人。English Version

部分论文

  • Depth map upsampling using compressive sensing based model. Longquan Dai, Haoxing Wang, Xiaopeng Zhang. (Neurocomputing) .第一作者
  • Accelerate bilateral filter using Hermite polynomials. Longquan Dai, Mengke Yuan, Xiaopeng Zhang. (Electronics Letters) .第一作者
  • Fast minimax path-based joint depth interpolation. Longquan Dai, Feihu Zhang, Xing Mei, Xiaopeng Zhang. (IEEE Signal Processing Letters) .第一作者
  • Optimal fitting polynomial for linear time bilateral filters. Longquan Dai, Mengke Yuan, Xiaopeng Zhang. (Electronics Letters) .第一作者
  • Speeding up the bilateral filter: A joint acceleration way. Longquan Dai, Mengke Yuan, Xiaopeng Zhang. (IEEE Transactions on Image Processing) .第一作者
  • Joint depth map interpolation and segmentation with planar surface model. Shibiao Xu, Longquan Dai, Jiguang Zhang, Jinhui Tang, G Kumar, Yanning Zhang, Xiaopeng Zhang. () .其他作者
  • Designing by training: acceleration neural network for fast high-dimensional convolution. Longquan Dai, Liang Tang, Yuan Xie, Jinhui Tang. (Advances in Neural Information Processing Systems) .第一作者
  • Hyper-Laplacian regularized multilinear multiview self-representations for clustering and semisupervised learning. Yuan Xie, Wensheng Zhang, Yanyun Qu, Longquan Dai, Dacheng Tao. (IEEE transactions on cybernetics) .其他作者
  • 基于图像分解和区域分割的数字图像修复水. 沈民奋, 陈家亮, 代龙泉, 李斌. (电子测量与仪器学报) .其他作者
  • 基于遗传最小二乘小波支持向量机的分类研究. Longquan Dai, 代龙泉, Jialiang Huang, 黄嘉亮, Min Shen, 沈民奋. (中国人工智能学会学术年会) .第一作者
  • 项目

  • 国家自然科学基金面上项目 "低计算开销的高通量图像处理算法研究", (No.62072238), 2020-2024, 主持
  • 国家自然科学基金青年科学基金项目 "基于个性化的人脸老化合成研究", (No.61701235), 2018-2020, 主持
  • Copyright © 2022 南京理工大学智能媒体分析实验室. All rights reserved.

    Theme: ColorMag by ThemeGrill. Powered by WordPress.