@Tak2 님이 소개한 그록 게시물 ai 기능 추가 > 자유게시판

대충 Chat-gpt에게 물어 러프한 화면구성을 하고 테스트를 해보는데 라마3엔진이 기대 이상으로 별로인데요? 제가 유료만 이용해서인 이유도 있겠지만 현격하게 수준이 떨어집니다.
테스트URL: PHP Groq AI 챗봇 (한글 전용)
P.S...테스트 페이지의 AI모델은 그록 API 무료 플랜의 'llama3-8b-8192' 엔진 이고 원활한 소통을 위해 미리 한글 사용에 대한 암시를 준 상태입니다. 까페24시 호스팅 중 극저렴 플랜이라 트래픽 제한이 있을 수 있습니다.
새벽까지 바둑을 두다 이제 들어와 테스트 페이지 만들어 테스트를 해봤고 게시판은 자고 나서나 붙여야겠네요.
연휴 참...좋았는데...
연휴무상....ㅠㅠ
댓글 7개
딥시크 소스를 내려받았는데 까보니 라마소스를 참고했다고 주석에 나와있네요.
유튜브 영상을 보니 14빌리언모델은 pc에서 그럭저럭 돌아간다고 하네요.
[code]
# Copied from transformers.models.llama.modeling_llama.LlamaLinearScalingRotaryEmbedding with Llama->DeepseekV3
class DeepseekV3LinearScalingRotaryEmbedding(DeepseekV3RotaryEmbedding):
"""DeepseekV3RotaryEmbedding extended with linear scaling. Credits to the Reddit user /u/kaiokendev"""
def __init__(
self,
dim,
max_position_embeddings=2048,
base=10000,
device=None,
scaling_factor=1.0,
):
self.scaling_factor = scaling_factor
super().__init__(dim, max_position_embeddings, base, device)
def _set_cos_sin_cache(self, seq_len, device, dtype):
self.max_seq_len_cached = seq_len
t = torch.arange(
self.max_seq_len_cached, device=device, dtype=self.inv_freq.dtype
)
t = t / self.scaling_factor
freqs = torch.outer(t, self.inv_freq)
# Different from paper, but it uses a different permutation in order to obtain the same calculation
emb = torch.cat((freqs, freqs), dim=-1)
self.register_buffer("cos_cached", emb.cos().to(dtype), persistent=False)
self.register_buffer("sin_cached", emb.sin().to(dtype), persistent=False)
[/code]
게시글 목록
| 번호 | 제목 |
|---|---|
| 1716888 | |
| 1716864 | |
| 1716861 | |
| 1716856 | |
| 1716851 | |
| 1716850 | |
| 1716848 | |
| 1716843 | |
| 1716841 | |
| 1716834 | |
| 1716830 | |
| 1716828 | |
| 1716821 | |
| 1716819 | |
| 1716815 | |
| 1716811 | |
| 1716809 | |
| 1716808 | |
| 1716795 | |
| 1716791 | |
| 1716784 | |
| 1716783 | |
| 1716781 | |
| 1716773 | |
| 1716765 | |
| 1716761 | |
| 1716759 | |
| 1716743 | |
| 1716734 | |
| 1716733 |
댓글 작성
댓글을 작성하시려면 로그인이 필요합니다.
로그인하기