实例探究.
添加案例
我们的案例数据库覆盖了全球物联网生态系统中的 22,657 家解决方案供应商。
您可以通过筛选条件进行快速浏览。
Download Excel
筛选条件
-
(10)
- (10)
- (1)
- (1)
-
(4)
- (1)
- (1)
- (1)
- 查看全部
-
(4)
- (1)
- (1)
- (1)
- 查看全部
-
(2)
- (1)
- (1)
-
(1)
- (1)
- 查看全部 6 技术
- (7)
- (5)
- (2)
- (2)
- (2)
- 查看全部 10 行业
- (7)
- (3)
- (1)
- (1)
- (1)
- 查看全部 5 功能区
- (7)
- (3)
- (3)
- (2)
- (2)
- 查看全部 11 用例
- (8)
- (6)
- (2)
- (2)
- (1)
- 查看全部 7 服务
- (12)
Selected Filters
![]() |
与 Neptune 加强医疗保健人工智能系统中的实验跟踪和协作
Theta Tech AI 团队在管理和分析机器学习模型的实验日志方面面临挑战。 AWS CloudWatch Logs 不足以满足他们的需求,导致难以跟踪指标、调试问题、与 Optuna 集成以及向客户传达结果。
|
|
|
![]() |
使用 Neptune 提高工作流程效率和可重复性:Brainly 案例研究
Brainly 的视觉搜索团队需要一种工具来跟踪和管理 Amazon SageMaker 的日志,以避免工作流程中出现瓶颈。他们还想要一个专门构建的工具,无论实验量如何,都可以扩展。
|
|
|
![]() |
分析促销活动对销售增长的影响:案例研究
面临的挑战是分析促销活动对一家领先的中欧和东欧 (CEE) 食品公司销售额增长的影响。这些数据涉及海量的数据源、数百种不同的产品、承包商和承包商的客户、不同的促销类型、不同的促销周期、重叠的促销以及竞争对手的行为。
|
|
|
![]() |
使用 Neptune 增强实验工作流程和资源监控:Waabi 案例研究
Waabi 面临的挑战是跟踪从大规模实验中收集的数据并以有组织且可共享的方式导出这些数据。他们需要整个组织的可见性和一致性。
|
|
|
![]() |
利用 Neptune 改进基础设施设计:案例研究
Continuum Industries 在构建和运行基础设施设计优化引擎方面面临挑战。他们需要一个强大的质量保证系统以及一种验证和测试算法改进的方法。他们现有的解决方案笨重且难以维护。
|
|
|
![]() |
利用 Neptune 改善蛋白质设计的实验管理和生产力
构建 DeepChain™(蛋白质设计平台)等复杂软件需要对不同的活动部件进行大量研究。客户需要各种类型的解决方案,每次都需要新的实验和研究。由于为不同的客户运行多个实验,对于任何规模的团队来说,在确保实验保持高效的同时跟踪实验都将不可避免地令人畏惧。
|
|
|
![]() |
利用 Neptune 扩大机器学习研究:ailslab 案例研究
ailslab 在扩大机器学习研究规模时面临着多项挑战,包括数据隐私、工作流程标准化、特征和模型选择、实验管理和信息记录。
|
|
|
![]() |
改进实验跟踪和与 Neptune 的协作:案例研究
随着实验数量和团队成员的增加,Viet 在 Hypefactors 的团队在实验跟踪方面面临着挑战。用于存储元数据和工件的松弛和个人策略变得效率低下,并在管道中造成了瓶颈。
|
|
|
![]() |
使用 Neptune 改善体育数据分析的管道管理和性能
ReSpo.Vision 在大规模管理和调试大量管道方面面临挑战。他们努力解决调试问题、跟踪管道结果以及重现成功的实验。
|
|
|
![]() |
海王星:简化研究项目中的实验跟踪和协作
Jan 和他的研究团队在管理跨多个服务器的实验跟踪、访问控制管理、结果比较以及学生离开时保存实验历史方面面临着挑战。
|
|
|
![]() |
Neptune:物联网实验跟踪和可视化的托管解决方案
手动运行实验并跟踪它们既令人畏惧又耗时。可视化实验值和维护 MLflow 也具有挑战性。
|
|
|
![]() |
How Elevatus Uses Neptune to Check Experiment Results in 1 Minute
The team at Elevatus faced significant challenges in managing their machine learning models due to the lack of an observability layer. This absence led to inefficiencies, such as the need to reanalyze data and reimplement workflows whenever evidence for language models was requested. The team recognized the necessity of a mature observability layer to facilitate large-scale training jobs and involve stakeholders in auditing AI systems. They sought a model tracking solution that could provide historical performance tracking and integrate well with their existing tools, such as PyTorch Lightning and Optuna. The goal was to enhance model performance tracking and optimize compute utilization, enabling quick iteration across experiments.
|
|