字节跳动发布UI-TARS-1.5,入门AI就来近屿智能
近日,字节跳动在 Hugging Face 平台正式开源了其最新多模态代理模型——UI-TARS-1.5。作为 UI-TARS 系列的革新之作,该模型以视觉语言模型为基础,突破性实现跨平台 GUI 自动化交互,为自动化与智能交互领域注入了强劲动能。无论是开发人员还是终端用户,都能通过这一模型获得更加高效与便捷的交互体验。
UI-TARS-1.5 采用端到端结构设计,仅依靠视觉输入和多模态指令,即可跨越桌面、移动端、网页等多个平台,实现界面交互的自动执行。对比传统基于模块化或手工配置的交互系统,该模型拥有更强的灵活性与适应性,在实际应用中大大降低了开发门槛和部署成本。
该模型具备四大关键能力:自然语言操控、多模态感知、跨平台适配、自学习优化。用户只需输入简单自然语言指令(中英文皆可),即可快速执行复杂任务;它还能理解截图、文字、图像等多模态信息,并作出精准响应,带来真正“理解你”的人机交互体验。
目前,UI-TARS-1.5 已通过 GitHub 与 Hugging Face 完善上线,支持本地及云端多种部署方式。模型命名源自《星际穿越》中的智能机器人 TARS,彰显字节跳动在推动 AI 实用化方面的前瞻与实力。