本站使用 cookies,继续浏览表示您同意我们使用 cookies。
南京理工大学计算机学院于近年增设人工智能专业,2019年计划招收60-100人。为了满足人工智能相关专业学生的培养及内部科研人员的需求,规划在2019年秋季开学前完成ai人工智能实验室平台的建设。
高校以往的ai平台只有少量的计算机,仅供少数的教师使用,因此在管理上较为简单。当
ai成为专业学科后,ai服务器数量增加带来了运维工作量的剧增,由于学院里缺乏专职的运维工程师,导致日常的教学活动受到制肘。
传统的方案不能面向师生开放多级账户,无法实现多租户管理,申请资源流程冗长缓慢,对用户不够友好。 小型机管理复杂,可行的前提下需要迁移到x86平台,完成跨平台数据库迁移,降低运维难度和成本。原先购置的ai服务器成本高昂,新改造方案既需要考虑运维和性能问题,还要考虑兼容利旧问题。
通过深信服超融合一体化平台,结合asv和vgpu模块,为用户提供gpu云主机服务;利用acmp的云管特性,实现了以教师及学生为粒度的多租户管理;与现有的ad域服务器打通,实现了一个账号登录云管及云主机,简化了用户体验及运维复杂度;原有ai服务器得到利旧,使得总体投资得到有效控制。
高效的学生账号的导入和权限管理:能够结合ad域批量导入用户,并且能够对新增用户进行自动同步。
能够支持gpu资源配额的申请:用户可以自主申请gpu云主机(管理员可以定义云主机模板)
灵活的资源调度与分配:支持虚拟机生命周期管理,且虚拟机到期自动执行关机操作(虚拟机不删除,释放gpu的资源),关机之后gpu显卡可以被其他用户使用。并且用户可以重新申请gpu资源并开机进入下一个生命周期,该过程无需管理员介入审批。