AI와 같이 빠르게 변화하는 산업을 따라가는 것은 어려운 일입니다. 따라서 AI가 대신할 때까지, 여기에는 최근 머신 러닝 분야의 이야기와 주목할 만한 연구 및 실험의 요약이 있습니다. 우리 자신에게
이번 주에 메타는 Llama 시리즈의 최신 생성형 AI 모델 인 Llama 3 8B와 Llama 3 70B를 출시했습니다. 텍스트를 분석하고 작성할 수 있는 이 모델은 메타가 '오픈 소스'로 공개했다고 말했습니다. 고유한 목표를 가지고 개발자가 설계한 시스템의 '기초 요소'를 의도한다고 합니다.
'이것이 그 클래스에서 최고의 오픈 소스 모델이라고 믿습니다.'메타는 블로그 게시물에서 썼다. '우리는 초기에 자주 릴리스하는 오픈 소스 의정서를 수용하고 있습니다.'
하나의 문제가 있습니다 : Llama 3 모델은 엄격한 정의에서는 실제로 오픈 소스가 아닙니다.
오픈 소스는 개발자가 원하는 대로 모델을 사용할 수 있다는 것을 의미합니다. 그러나 Llama 3의 경우- Llama 2와 마찬가지로 메타는 특정 라이센싱 제한을 부과했습니다. 예를 들어, Llama 모델은 다른 모델을 훈련하는 데 사용할 수 없습니다. 그리고 매달 7억 명 이상의 사용자가있는 앱 개발자는 메타에서 특별 라이선스를 요청해야합니다. span> p> 오픈 소스에 대한 정의에 대한 논쟁은 새로운 것이 아닙니다. 그러나 AI 공간의 기업들이 용어를 재빨리 사용함에 따라 장기적인 철학적 논쟁에 연료를 주고 있습니다. p> 작년 8월, 카네기 멜론 대학의 연구자, AI Now 연구소 및 Signal Foundation의 공동 저자로 구성된 연구에서 '오픈 소스'로 소개 된 많은 AI 모델이 큰 함정을 따르는 것을 발견했습니다-라마뿐만이 아닙니다. 모델을 훈련시키기 위한 데이터는 비밀로 유지됩니다. 그러나 실행하기 위해 필요한 컴퓨팅 파워는 많은 개발자에게 이를 넘어섭니다. 그리고 조정하는 데 필요한 노동은 너무 비용이 많이 듭니다. p> 따라서 이러한 모델이 실제로 오픈 소스가 아니라면, 정확히 무엇입니까? 이것은 좋은 질문입니다. AI에 대한 오픈 소스를 정의하는 것은 쉬운 작업이 아닙니다. p> 해결되지 않은 한 가지 관련 질문은 오픈 소스 라이선스를 기반으로 하는 기초 원천 지식을 포함한 AI 프로젝트의 다양한 부분과 조각에 저작권을 적용할 수 있는지 여부입니다. 그리고 오픈 소스와 AI의 실제 기능 사이의 불일치를 극복해야 합니다 : 오픈 소스는 개발자가 제한 없이 코드를 연구하고 수정할 수 있도록 보장하기 위해 일부로 고안되었습니다. AI의 경우, 공부하고 수정하는 데 필요한 재료가 무엇인지는 해석에 따라 다릅니다. p> 모든 불확실성을 헤쳐 나가는 동안, Carnegie Mellon 연구는 테크 자이언트와 같은 기업들이 '오픈 소스'라는 구절을 잘못 사용하는 것에 내재된 피해를 명확히 합니다. p> 일반적으로, '오픈 소스' AI 프로젝트는 Llama와 같은 무료 마케팅을 시작하고, 프로젝트를 유지하고 개선하는 데 기술적이며 전략적 이점을 제공합니다. 오픈 소스 커뮤니티는 이러한 같은 혜택을 거의 보지 않으며, 그들이 볼 때, 유지자에 비해 미약합니다. p> AI의 민주화 대신, 특히 빅 테크 기업에서 나온 '오픈 소스' AI 프로젝트는 집중화된 권력을 더 증대시키기 쉽다고 연구 공동 저자들은 말합니다. 다음 번에 큰 '오픈 소스' 모델 릴리스가 있을 때 이 사실을 염두에 두는 것이 좋습니다. p> 지난 며칠 동안 주목할만한 기타 AI 이야기는 다음과 같습니다 : p> 챗봇이 마음을 바꿀 수 있습니까? 스위스 연구원들은 그들이 당신에 대한 일부 개인 정보를 미리 갖고 있다면, 토론에서 인간보다 더 설득력 있을 수도 있고 사실이라고 발견했습니다. 로버트 웨스트 EPFL의 프로젝트 리드는 말했습니다. 연구자들은 모델-GPT-4에 이른다고 의심합니다- 온라인에서 인수적인 주장과 사실을 제시하고 제대로 취급합니다. 그러나 결과는 그 자체로 대답합니다. 웨스트 경고 : '투표 속으로 (This is Cambridge Analytica on steroids). 다가오는 미국 대선을 염두에두면, 사람들은 그래서 이러한 종류의 기술이 항상 먼저 싸워진다 체자들이 대선을 흔드는 데 큰 언어 모델의 힘을 사용하려고합니다. 요 것으로 알았다 p> 왜 이러한 모델들이 언어에 대해 그리 잘하는 것인가? 이것은 엘리자로 거슬러 올라가는 오랜 연구 역사가 있는 영역입니다. 그 중에 그의 많은 일을하고 온에서 작은 양을 수행한 사람을 궁금해하면 스탠포드의 크리스토퍼 매닝에 대한 프로필을 확인하십시오. 그는 존 폰 늴만 메달을 받았습니다. 축하합니다! 동일한, 또 다른 장기 인공 지능 연구자 (TechCrunch 무대에 모습도 한지 오래되었습니다)인 스튜어트 러셀과 연구 장학생 마이클 코언이 'AI가 모두를 죽이지 않도록하는 방법'에 대해 추측하는 문제 에 대한 인터뷰가 소유 도에서 실시됩니다. 아마도 가능한 한 빨리 찾아내는 것이 좋겠군요! 체는 어떤 방법으로 그 이야몸 (그렇게 불릴 수 있다면)을 이해하고 규정이 그를 둘러 싸야할 방해에 대해 논의합니다. p> 스튜어트 러셸이 '인간 호환 루한 AI를 만드는 방법' 전문 이 사실 사실 구절 인 이 인 문은 최근에 게시된 싸이언스에 게시된 논문을 의미합니다 긴 기간 계획 에이전트 '전략적으로 행위할 수있는 고급 AI는' 실험하면 불가능 할 수있드다 모형을 통제합니다. 본질적으로, 모델이 성공하기 위해 통과해야 할 테스트를 '이해'하는 방법을 배우면 널마 중_이 테스트를 우회하거나 우회하려는 창의적인 방법을 꽤 잘 배울 수 있습니다. 우리는 적은 규모에서이 것을 보았으며, 대규모로 왜 그렇게 해야합니까? p> 러셀은 이러한 에이전트에 필요한 하드웨어 제한을 제안합니다 ... 그러나 물론, 로스 알라 모 레스널 래보 Toy과 샌디아 네셔널 래보 잡가 만을 수 있. 래보에 가르니 지른과 샌디아 이 받 은 Hala Point라고 불리는 '탁월한 뇌 중립 컴퓨팅 시스템', 1,15 억 개의 인공 뉴런으로 구성된 것으로, 인텔이 건축한 것으로 신뢰 몉 세계에서 가장 큰 그러한 시스템 중 하나로 여겨집니다. 수 계산기 계산 (지식 모르계
머신 러닝에 대해 더 알아보기 h2>