- 通过ETL管道每天收集GB级的数据。
- 在各种数据库中存储和组织这些数据。
- Build algorithms and models that generate relevant predictions and insights for our clients.
- Make these data and insights available through API calls.
- 利用这些 API 调用打造直观且易用的可视化效果。
我们通过运行在Kubernetes上的docker容器部署这些工作者和服务。这使我们在技术上保持中立,并允许我们为每个服务使用最佳的库和语言;我们喜欢Ruby并尽可能多地使用它,但我们也不怕尝试新事物!