• ARTICLE
  • STRING
  • CONVERTER
  • ENCRYPT
  • NETWORK
  • MORE
    CHART
    MATH
    COORDINATE
    IMAGE
    FILE
  • ARTICLE
    STRING
    CONVERTER
    ENCRYPT
    NETWORK
    MORE
    CHART
    MATH
    COORDINATE
    IMAGE
    FILE
logo Online Tools
All Chinese English Newest Hottest
469 search results

西瓜视频基于 Hertz 的微服务落地实践

37 Technology lddgo Shared on 2024-08-14

在Go语言开发中,内存泄漏问题往往难以定位,传统的Pprof工具虽然能提供一定帮助,但在复杂场景下其能力有限。为了更高效地分析和解决这些问题,CloudWeGo 团队开发了一款新的工具——Goref。Goref 基于 Delve,能够深入分析Go程序的堆对象引用,显示内存引用的分布,帮助开发者快速定位内存泄漏或优化GC开销。该工具不仅支持运行时进程的分析,还能分析核心转储文件,为 Go 开发者提供了一个强大的内存分析工具。项目已开源在 GitHub 上,欢迎社区贡献和使用。

50 Technology lddgo Shared on 2024-08-12

伴随大模型迭代速度越来越快,训练集群规模越来越大,高频率的软硬件故障已经成为阻碍训练效率进一步提高的痛点,检查点( Checkpoint )系统在训练过程中负责状态的存储和恢复,已经成为克服训练故障、保障训练进度和提高训练效率的关键。 近日,字节跳动豆包大模型团队与香港大学联合提出了 ByteCheckpoint 。这是一个 PyTorch 原生,兼容多个训练框架,支持 Checkpoint 的高效读写和自动重新切分的大模型 Checkpointing 系统,相比现有方法有显著性能提升和易用性优势。本文介绍了大模型训练提效中 Checkpoint 方向面临的挑战,总结 ByteCheckpoint 的解决思路、系统设计、 I/O 性能优化技术,以及在存储性能和读取性能测试的实验结果。

62 Technology lddgo Shared on 2024-08-09

本文介绍了HTTPDNS服务从中心迁移至边缘详细的落地过程。主要内容为: HTTPDNS下沉边缘实践遇到的挑战,包括服务放置、流量调度 HTTPDNS下沉边缘解决方案 从性能、成本出发,谈谈HTTPDNS下沉边缘后的收益

94 Technology lddgo Shared on 2024-08-07

KubeAdmiral 是字节跳动于 2023 年 7 月正式开源的多云多集群管理引擎,它孵化于字节跳动内部,从上线至今一直强力支撑抖音、今日头条等大规模业务的平稳运行,目前管理着超过 21 万台机器、超过 1000 万 Pod。 自正式开源以来,KubeAdmiral 自身也经历了不断发展和完善,在系统功能、扩展性、稳定性和运行效率均有大幅提升,也吸引了业界最终用户的使用和贡献。因此,我们相信 KubeAdmiral 已经准备好在生产环境落地,并很高兴地宣布 1.0.0 版本正式发布。

77 Technology lddgo Shared on 2024-08-02

近期,火山引擎多媒体实验室团队提出了一种高质量3D Gaussian-Splatting场景重建及低延迟重渲染技术,用于对场景进行高质量的重建,并支持复杂的重打光及实时渲染。该及时已经实际应用在虚拟直播等VR/AR/XR应用中。同时,该技术被图形学顶会SIGGRAPH 24收录,并被邀请在 NeRFs and Lighting session做正式汇报。

79 Technology lddgo Shared on 2024-08-01

用户增长方法论:在交叉小径的花园随机漫步

49 Technology lddgo Shared on 2024-07-31

PICO交互感知团队 - 可控3D版生成来袭:Coin3D实现三维可控的物体生成

55 Technology lddgo Shared on 2024-07-29

无论是语速超快、发音复杂的绕口令,还是精妙绝伦的文言文,又或是充满即兴和灵感的随意聊天,模型都能流畅自然地给出准确而地道的翻译结果。

54 Technology lddgo Shared on 2024-07-26

当前尖端的向量近邻搜索算法,主要以图搜索算法为主,此类算法为了能够最大化搜索的速度与准确度,需要将对应的索引结构和原始数据存放在内存中,显然这不仅大大提高了成本,还限制了数据集的大小。例如在当前主流的内存型 HNSW 算法下,业界常用的内存估算方式是:向量个数 * 4 * (向量维度 + 12)。那么在 DEEP 10M(96维)的 1 千万数据就需要内存达到 4GB 以上,但是通过 DiskANN 优化后,仅需要 70MB 的内存就可以对海量数据高效的进行检索;在 MS-MARCO(1024 维)的 1.38 亿条记录里,需要内存更是高达 534GB,这样检索 1.38 亿的数据需要 12 个 64GB 的节点。 按照上面的估算公式,到了 10 亿级别就需要大约 100 个节点,到 100 亿级别需要的节点数为 1000 个左右,这个规模的服务在资源成本和稳定性上都面临了极大的挑战。我们在服务客户的过程中,发现相比于低延迟检索需求,大部分客户更关注成本和稳定性

44 Technology lddgo Shared on 2024-07-25