
随后,周博士进一步剖析了传统金融数据处理工具的局限性,分析其在行情存储、因子计算等场景的性能瓶颈,并展开介绍了 DolphinDB 为海量金融数据提供的存储与计算解决方案。例如,DolphinDB 通过即时编译(JIT)技术,将脚本自动转化为机器码,显著提高执行效率。DolphinDB 还支持向量化计算与增量计算等范式,大幅降低了计算复杂度。为了更好地适配金融业务,DolphinDB 还为用户提供了丰富的金融计算内置函数库,开发了如 Orderbook 引擎、回测引擎等一系列业务中间件,帮助用户快速开发和实现新的量化因子策略。
近年来,GPU 凭借其强大的并行计算能力,在人工智能、科学计算等领域得到了广泛应用。而在量化金融领域,某些计算密集型任务(如期权定价、蒙特卡洛模拟、因子挖掘等)也可以通过 GPU 加速,大幅降低计算时间。周博士分享了 DolphinDB 在 GPU 加速计算领域的创新实践,针对金融领域的高频计算需求,已实现从专用场景到通用框架的技术演进。专用加速层面,DolphinDB 使用 GPU 对因子挖掘中的遗传算法进行优化,相较传统 CPU 计算速度提升超过百倍。DolphinDB 还在开发一种更通用的 GPU 计算方式,使用户无需修改现有脚本代码即可自动迁移到 GPU 执行。这种方式不仅能够减少代码迁移成本,还能为期权定价、利率曲线拟合、深度学习训练等计算场景中带来显著的性能优化。例如,在使用蒙特卡洛方法进行雪球期权定价时,DolphinDB 的 GPU 版本比 CPU 版本快17倍,且计算成本更低,有效支撑了实时定价等关键业务需求。
讲座中周博士还提到,团队正在积极探索 AI 和大模型与 DolphinDB 的结合。尽管大模型在Python代码生成方面表现出色,但面对 DolphinDB 特定语法时,存在明显的函数调用偏差现象,即大模型在代码生成时容易混淆 Python、JavaScript 等语言的类似函数,导致生成代码出现语法错误。为了提升大模型生成 DolphinDB 代码的准确性,团队收集了大量真实的量化编程问题,通过人工校验修正形成高质量训练数据,对Mistral 7B 和 DeepSeek 8B 模型进行定向微调。初步实验表明,相较于通用大模型,经微调的模型生成 DolphinDB 代码时,准确率得到了大幅提升。
为了进一步提升代码质量,DolphinDB 还探索了多轮交互式代码修正:用户输入需求后,模型首先生成基础代码,通过将代码运行结果反馈给大模型,获取异常信息反馈,模型据此进行迭代优化,经过5-6轮交互后,最终生成高质量代码。这种方法有效地减少了模型的幻觉问题,提高了代码生成的可靠性。周博士表示,这一 DolphinDB 编程助手目前还在内部测试阶段,如果效果达标,DolphinDB 计划在未来开源这一工具,为量化金融从业者提供更加智能化的编程辅助。(欲了解编程助手详情,请dolphindb1)
讲座进入尾声,周博士与在场观众围绕行业实践中的技术落地问题展开了深度交流,并介绍了即将启动的 DolphinDB 技能认证高校特训营项目,活动在热烈的讨论中顺利收官。



技能认证高校特训营
关注 DolphinDB 公众号,后台回复“特训营”,即可获得技能认证特训营报名链接!(首期报名截止时间为3.14,欲报从速!)
DolphinDB 高校合作计划
DolphinDB 高校合作计划旨在通过产学研协同创新、人才共育等多种形式,致力于将 DolphinDB 引入高校,共同培养具备国际视野、创新精神和实践能力的高素质金融科技人才。合作内容包括讲座、课程开发、人才实训及联合研究等,为学生提供丰富的学习资源、实习机会及研究课题。
目前,DolphinDB 已与多所知名高校开展合作,包括上海交通大学安泰经济与管理学院、上海交通大学高级金融学院、浙江大学经济学院、中国科学技术大学管理学院、北京大学经济学院、上海财经大学实验中心、南方科技大学商学院、对外经济贸易大学、复旦大学、南京大学、北京大学汇丰商学院、香港中文大学(深圳)、暨南大学等。
欲了解更多高校合作计划,或了解特训营课程安排/考核标准等详情,欢迎扫描二维码添加小助手!





