하루 이틀 정도 사용해보았을때
올라마 괜찮은 물건입니다.
사용해야 하는 곳의 조건은 딱 이렇습니다.
- AI가 필요하긴 한데 최신의 성능 좋은 AI 까지는 필요 없다.
- 내부 자료를 외부에 업로드 하는게 불안하다.
- 조금 오래된 AI를 커스터 마이징 해서 마음껏 사용하고 싶다.
- 소규모 회사로 3~4명 정도만 동시접속해서 사용하면 된다.
세팅 및 사용 방법
- RTX 4000번대 그래픽 카드와
- 64기가 정도의 메모리를 가진 서버를 세팅
- 사내 네트워크에 물려서 올라마를 설치하고 Open-Webui를 설치 (192.168.0.10)
- 회사에서 자주 사용하는 문서나 기타 정보들을 미리 문서에 등록해 둔다
- 192.168.0.10:3000 으로 접속해 계정을 발급하고 GPT 처럼 사용한다.
이렇게 하면 약 500만원 내에서 GPT4 정도의 성능의 AI 서버를 구축 가능할것 같네요
이렇게 서버를 구축하면 코딩 툴에도 연결해서 사용가능합니다.
다만 성능은 돈주고 사용하는 최신 AI 모델보다는 좀 떨어지고
엉뚱한 답변을 할때가 있습니다.
앞으로 AI 가 발전하면 미래에는 이렇게 될것 같네요
- 저비용(또는 무료)의 AI = 안똑똑, 느림, 엉뚱함
- 고비용의 AI = 똑똑하고 알아서 스마트 하게 잘 처리함
- 적당한 비용 = 특정 분야에서 적절하게 임무를 수행할 정도
이제 AI 모델을 적절히 잘 활용해
AI 에이전트를 잘 개발하는 회사가 먹고 살것 같습니다 ㅋㅋ
댓글 9개
베스트 댓글
엔비디아에서도 자체 Ai 프로그램을 지원하기는 합니다. RTX AI? 인가 검색해보시면 나올거에요.
파일 분석 기능 등이 엤다 하네요.
https://www.nvidia.com/ko-kr/ai-on-rtx/chat-with-rtx-generative-ai/
게시글 목록
| 번호 | 제목 |
|---|---|
| 1717042 | |
| 1717041 | |
| 1717036 | |
| 1717025 | |
| 1717024 | |
| 1717016 | |
| 1717014 | |
| 1717006 | |
| 1717004 | |
| 1716995 | |
| 1716986 | |
| 1716982 | |
| 1716978 | |
| 1716974 | |
| 1716968 | |
| 1716966 | |
| 1716952 | |
| 1716945 | |
| 1716934 | |
| 1716926 | |
| 1716920 | |
| 1716915 | |
| 1716914 | |
| 1716912 | |
| 1716906 | |
| 1716903 | |
| 1716902 | |
| 1716899 | |
| 1716894 | |
| 1716892 |

댓글 작성
댓글을 작성하시려면 로그인이 필요합니다.
로그인하기