Historico
Em seu princípio, o projeto objetivou atender 3 verticais de demandas computacionais: (i) o processamento de dados utilizando aplicações “prontas” (softwares livres) que usufruem de placas gráfica para alcançar uma melhor performance; (ii) o desenvolvimento de algoritmos e modelos de dados (incluindo treinamento de modelos de inteligência computacional) e o provimento de modelos de IA como serviço (inferência).
Ao ser recebido, o recurso computacional foi implantado no centro de dados principal da UFSC, onde foi conectado a rede da instituição e a internet com um link de 40Gbps.
Visando atender aos 3 princípios originais:
- Visando atender ao princípio (i), foi desenvolvido um serviço de fila de processamento (que inicialmente foi publicado e apresentado no evento WTICIFES) que passou por uma série de melhorias para melhor atender o nosso público alvo do serviço. Nesta plataforma, até a finalização deste documento, foram processados +4.400 trabalhos (jobs) usando +60 softwares por +48 usuários de diferentes +27 projetos.
- Para atender a demanda (ii) de desenvolvimento de algoritmos e modelos de conhecimento (para fins de pesquisa e ensino), implantamos a interface de desenvolvimento em nuvem Jupyter Notebook que, assim como seu projeto irmão “Google Colab”, pertence aos usuários desenvolverem e executarem seus códigos diretamente na infraestrutura em nuvem. Para atender às diversas necessidades dos usuários foram construídas com 3 “sabores” (imagens) diferentes de ambientes, com bibliotecas específicas para Ciência de Dados, Inteligência Artificial e Visão Computacional, que até o momento atendeu + de 60 usuários, disponibilizadas e gerenciadas em https://codigos.ufsc.br/vlab (pacote sofrerá registro de software oportunamente).
- Por fim, para atender (iii) , implementamos o serviço web Ollama que possibilita usuários remotos usufruírem de modelos de IA hospedados na infraestrutura do projeto. Atualmente este serviço esta hospedando mais de +500GB de dados, provendo +11 modelos de IA (entre o Llama3.2, Deepseek, Qwen etc), possibilitando que múltiplas aplicações utilizem este recurso de forma centralizada e sem duplicação/desperdício de recurso computacional.