일론 머스크가 매우 똑똑한 챗봇을 출시할 예정이다. 미국 의원들이 DeepSeek을 금지하고자 한다... 이것이 토요일 이번 주 기술 뉴스의 주요 내용이다.
일론 머스크, 초지능 챗봇 출시 예정
일론 머스크는 곧 출시될 Grok 3 챗봇을 모든 경쟁자를 이기는 AI 모델이라고 극찬했으며, 전 세계가 앞으로 몇 주 안에 이 모델을 볼 수 있게 될 것이라고 밝혔습니다.
2월 13일 두바이에서 열린 세계 정부 회의에서 영상 통화를 통해 엘론 머스크는 "가끔 Grok 3가 무섭게 똑똑하다고 생각해요."라고 말했습니다.
행사에서 그는 OpenAI CEO 샘 알트먼과의 갈등, 일부 미국 정부 기관을 "완전히 없애려는" 계획, AI의 미래에 대한 예측 등 다양한 주제에 대해 이야기했습니다.
이 억만장자에 따르면, xAI의 차기 모델은 합성 데이터로 훈련을 받았으며 논리적 일관성을 달성하기 위해 데이터를 "파헤쳐" 실수를 반성할 수 있다고 합니다.
머스크는 회사가 Grok 3를 다듬는 마지막 단계에 있으며, 1~2주 안에 챗봇을 출시할 수 있을 것이라고 밝혔습니다. 그는 모델 출시를 서두르고 싶지 않았습니다.
세계에서 가장 부유한 사람은 또한 2015년에 알트만과 다른 여러 기업가들과 공동 창립한 회사인 OpenAI를 공격했습니다.
OpenAI는 오픈 소스, 비영리 단체를 의미하지만 현재는 AI로부터 수익을 극대화하기 위해 노력하고 있다고 그는 말했다.
그는 최근 OpenAI를 관리하는 비영리 단체를 974억 달러에 인수하겠다고 제안했지만, 알트만은 거부했습니다.
랜섬웨어 공격의 무서운 전망
보안 전문가들은 랜섬웨어 공격이 '2025년에 발생할 일'에 대해 '매우 우려'하고 있습니다.
보안 회사 Rapid7의 위협 분석 부문 수석 이사인 크리스티안 비크는 2024년이 지속적인 공격의 해가 될 것이라고 생각합니다.
해당 회사 보고서에 따르면 작년에 랜섬웨어 갱단의 공격 건수가 급격히 늘어났으며, 몸값은 최대 3억 8천만 달러에 달했다고 합니다. 각 사건의 평균 몸값은 20만 달러입니다.
보안 회사 N2WS의 최고 솔루션 설계자인 세바스찬 스트라우브에 따르면, 2025년은 더욱 위험해질 것으로 전망됩니다. "저는 2025년에 무슨 일이 일어날지 매우 우려하고 있습니다... 올해는 대규모 공격이 몇 건 있을 것 같습니다."
Rapid7의 2024년 랜섬웨어 보고서에 따르면 갱단들이 서로 기술과 소스 코드를 공유하고 있는 것으로 나타났습니다. 이는 조직 간의 상호작용을 보여주며, 더 중요하게는 사이버 공격이 점점 더 정교해지고 있다는 것을 보여줍니다.
각 소스 코드마다 서로 다른 버전을 만들 수 있습니다.
슈트라우브는 AI를 사용하여 공격 시나리오를 개발하면 더 위험하고 효과적인 공격이 가능해진다고 지적합니다. 나쁜 행위자들은 상호 연결된 시스템도 표적으로 삼습니다.
그는 공격을 막기 위해 지속적인 국제적 협력이 필요하다고 말했습니다. 공격자를 표적으로 삼는 커뮤니티의 노력 없이는 변화란 불가능할 것이다.
미국 의원들이 DeepSeek을 금지하고 싶어합니다.
미국 의원 2명이 정부 직원이 공공 기기에서 DeepSeek의 AI 챗봇을 사용하는 것을 금지하려고 합니다.
다린 라후드 상원의원과 조쉬 고트하이머 상원의원은 국가 안보 우려를 이유로 정부 기기에서 DeepSeek 사용을 금지하는 법안을 제출할 준비를 하고 있습니다. DeepSeek는 미국과 중국 간 기술 우위를 놓고 벌어지는 전투에서 가장 최근의 표적입니다.
이 법안이 통과되면, 정부 기관은 60일 이내에 DeepSeek를 비롯한 모회사인 High Flyer의 다른 모든 앱을 정부 기기에서 제거하기 위한 표준과 지침을 마련해야 합니다.
이전에는 호주, 이탈리아 및 여러 기관이 유사한 금지 조치를 발표했습니다.
이 법안의 언어는 모회사인 바이트댄스가 미국 사용자 데이터를 중국과 공유할 수 있다는 우려로 인해 미국에서 TikTok을 금지한 법률과 비슷합니다.
[광고2]
출처: https://vietnamnet.vn/elon-musk-sap-ra-chatbot-sieu-thong-minh-nha-lap-phap-my-muon-cam-deepseek-2371625.html
댓글 (0)