PGR21.com
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
Date 2023/03/29 20:48:00
Name 오후2시
Subject [일반] 뉴욕타임스 3.29.일자 기사 번역(AI는 통제가 필요하다.) (수정됨)
[글을 진행하기에 앞서, 가독성을 높일 방법을 찾고 있습니다.
https://pgr21.co.kr/qna/169753?page=4
뉴욕타임스 기사 번역본을 올리면서 글의 구성이나 배치 등을
계속 바꿔볼까 합니다.

이번 글은
1) 기사 주제에 대한 간단한 소개
2) 기사내용 요약
3) 한글 번역본 전체
4) 영어 원문 전체 순으로
구성해 보았습니다.

주된 고민은
가. 휴대폰과 PC 두 환경에서 일관적으로 잘 읽히도록
     편집하는 방법

나. 번역본의 오류를 잘 식별, 검증할 수 있도록
     원문과의 배치 입니다.

많은 분들의 의견, 조언 부탁드립니다.]



GPT-3가 공개되면서 강력한 기능에 사람들이 주목하고 있습니다.
대학 숙제, 연설문, 책 등을 대신 작성하고 심지어 인간이 쓴 것과 차이가 없을 정도입니다.
이에 많은 사람들이 AI의 위험성에 대해 우려하고 있습니다.

3.28일, 일론 머스크(테슬라 CEO), 유발 하라리(사피엔스 저자), 스티브 워즈니악(애플 공동창업자) 등이 모여
GPT-4보다 강력한 AI 시스템 개발을 일시적으로 중단하자는 서한을 공개했습니다.
이들은 AI를 감시하고 통제하는 방법을 마련할 시간이 필요하다고 주장합니다.
출처 : https://news.kbs.co.kr/news/view.do?ncd=7638210

이번 기사는 AI 통제 규칙을 만드는데 시간이 필요하며,
그 동안 일시적으로 개발 중단해야 한다는 유발 하라리의 뉴욕타임스 기고문 입니다.


기사내용
1) 기업은 신제품을 시장에 출시할 때, 사람에게 해를 끼치는지 확인하도록 되어 있다.
    하지만, AI는 예외적이다.

2) 인간의 능력으로 AI의 한계를 파악할 수 없지만, 핵심역량은 의사소통이다.
    2-1 : 인류는 수천년 동안 언어를 통해 법, 이념, 경제 등의 문명을 쌓아 올렸다.
    2-2 : AI가 의사소통 능력을 확보하게 되면, 문명의 모든 것을 침투하고 조종할 수 있다.

3) 인간은 현실을 있는 그대로 보지 못한다. 사회적 가치관 등에 따라 현실을 인식한다.
    3-1 : 우리는 신을 숭배하고, 특정 이념에 목숨을 바쳤다.
            이제 인류는 AI가 만든 환각 속에 살 것이다.
4) 소셜미디어는(트위터 등) 원시적인 AI와 인류의 첫 만남이었다.
    AI는 사람의 반응과 주목도에 따라 이야기, 사진, 그림 등을 선정해 그것들만 보여준다.
    4-1 : 소셜미디어는 사회를 양극화 시키고, 정신질환을 초래하며, 민주주의를 무너뜨린다.
            AI는 누군가를 막기위해 총 쏠 필요가 없다.
            그저 사람들에게 ‘올바른 이야기’를 보여주고, 사람이 총 쏘게 하면 된다.

5) GPT-4를 위시로 한 거대 언어모델은, 신과 같은 권력을 가지고 우리의 일상을 장악할 것이다.
    하지만, 소셜미디어의 사례에서 보듯 AI는 사회를 파괴할 수도 있다.
     5-1 : 따라서 정치/경제/일상 등이 AI에 장악되기 전에, 숙고할 시간이 필요하다.

6) 혹자는 말한다. ‘중국과의 경쟁에서 뒤처질 것.’ 이라고.
    하지만 ‘아니다.’
    통제되지 않는 AI가 책임 없이 사회를 장악한다면, 그것 때문에 중국에게 밀려날 것이다.

7) 우리는 AI의 전지전능한 권력과 그에 상응하는 책임을 결합해 인류에게 도움이 되도록 할 수 있다.



[당신은 편안한 거짓과 고통스러운 진실을 선택할 수 있다.
그리고 우리는 거짓에서 벗어날 수 있다.]


비행기에 탑승하는 걸 가정해 보자.
비행기를 제작한 전문가 중 절반이 당신에게 해당 비행기는 10%의 확률로 추락할 것이며,
당신과 모두를 죽게 할 것이라고 말한다. 당신은 비행기에 계속 탑승할 것인가?

2022년, 700명 이상의 AI관련 최상위 학자들과 연구자들은 미래 AI 위험성에 대해 설문을 받았다.
이들은 AI업계의 주요 회사 들로부터 후원을 받고 있다.
답변 중 절반은, 미래 AI 시스템이 인간 멸종(비슷하게 영구적이고 가혹한 권리 박탈)을
일으킬 확률이 10% 이상이라고 했다.
오늘날 기술기업들은 거대한 언어 모델을 구축하고, 인간성을 부여하기 위한 경쟁에 휘말렸다.

제약회사들은 철저한 안전성 검사를 받지 않고 신약을 사람들에게 팔 수 없다.
바이오 연구소들은 그들의 능력을 주주들에게 보여주기 위해 신형 바이러스를 공론장에 발표할 수 없다.
마찬가지로 강력한 GPT-4와 그 다음 버전의 AI 시스템은,
사회 공동체가 안전하게 받아들일 수 있는 속도보다 더 빠르게 수십억 명의 삶과 관계를 맺어서는 안 된다.
시장을 장악하기 위한 경쟁이 인류에게 가장 중요한 기술을 배포하는 속도를 결정해서는 안 된다.
우리는 AI를 적절하게 사용할 수 있는 속도에 맞춰 움직여야 한다.

AI 악몽은 20세기 중반부터 인류를 괴롭혔다.
최근까지, AI는 진지한 과학/정치적 논쟁보다 공상과학의 영역에 속하는 머나먼 일처럼 여겨졌다.
우리의 지적능력으론 GTP-4나 비슷한 AI의 능력을 파악하기 어렵다.
또한 AI가 기하급수적으로 진보하고 강력해지는 속도를 파악하기 훨씬 어렵다.
하지만 AI의 핵심역량을 하나만 남겨보면 ‘단어, 음악, 그림 등으로 능숙하게 의사 소통할 수 있는 능력’ 이다.

태초에 말이 있었다. 언어는 인류문화의 운영체계이다.
언어에서 신화, 법, 신, 화폐, 예술, 과학, 우정, 국가, 프로그램 코드가 생겨났다.
AI가 언어를 숙달한 건 문명을 해킹하고 조종할 수 있다는 의미다.
AI는 언어에 통달해, 은행 금고에서 그리스도가 매장되었던 성묘까지 문명사회의 마스터키를 쥐게 되었다.

인공지능이 대다수의 글, 멜로디, 그림, 법, 정책 그리고 수단들을 만든다면,
인간에게 무엇을 의미하는 것일까?
또한 인공지능이 인간 사고방식의 약점, 편향, 의존을 초인적인 효율성으로 이용할 줄 알며
인간과 친밀한 관계를 형성할 줄 안다면?
체스와 같은 경기에서 인간은 컴퓨터를 이길 수 없다. 같은 일이 예술, 정책 또는 종교에서 일어난다면?

AI는 수천년간 인류가 만들어 낸 문화 전부를 빠른 속도로 집어삼키고 소화해
새로운 문화적 산물을 쏟아낼 것이다.
학교숙제 뿐만 아니라 정치적 연설, 이념 선언문, 신흥종교를 위한 경전도 포함한다.
2028년, 미국 대선은 더 이상 인간에 의해 주도되지 않을 것이다.

인간은 때때로 현실을 직시하지 못한다.
우리는 문화에 둘러싸여, 사회적 가치관에 따라 현실을 인식한다.
정치적 견해는 기자의 보도와 친구의 이야기에 의해 형성된다.
성적 취향은 예술과 종교에 의해 조금씩 변한다.
사회적 가치관은 지금까지 인류에 의해 만들어졌다.
인간이 아닌 지능에 의해 만들어진 사회 가치관에 따라 현실 인식하는 것은 어떤 것일까?

수천년 동안, 인류는 다른 사람들의 상상속에 살아왔다.
우리는 신을 숭배하고, 이상적인 미를 추구하며,
선도자/시인/정치가의 상상에서 비롯된 이상을 위해 삶을 바쳤다.
머지않아 우리는 인공지능의 환각 속에 살게 될 것이다.

영화 ‘터미네이터’ 시리즈는, 로봇이 길거리를 뛰어다니며 사람에게 총을 쏘는 모습을 묘사했다.
‘매트릭스’는 AI가 인간사회를 완전히 통제하려면
먼저 인간의 뇌를 물리적으로 조작하고 컴퓨터 네트워크 속에 가둘 것으로 가정했다.
하지만, AI가 능숙한 언어능력을 습득하면, 누군가를 쏘거나, 뇌에 칩을 심지 않고도
우리를 매트릭스와 같은 환각속에 가두기에 필요한 모든 것들을 가질 수 있다.
만약 누군가를 죽여야 할 필요가 있다면,
AI는 우리에게 ‘올바른 이야기’를 말해 인간이 쏘게끔 유도한다.

환각속에 갇히는 악몽은 AI의 공포보다 훨씬 오래 전부터 인간을 괴롭혔다.
우리는 곧 ‘데카르트의 악마’, ‘플라톤의 동굴’, ‘불교의 마야’를 마주하게 될 것이다.
환각의 장막이 인류 전체를 덮고, 우리는 장막을 찢을 수 없으며 심지어 알아차리지도 못할 것이다.

소셜 미디어는 AI와 인류의 첫 접촉이었고, 인간성이 말살되었다.
첫 접촉은 우리에게 앞으로 다가올 일의 쓴 맛을 보여주었다.
소셜미디어에 탑재된, 원시적인 AI는 즐길 거리를 만들어내지 못한다.
하지만 사용자가 만들어낸 이야기를 선택해 그것들만 보여줄 수 있다.
‘뉴스피드’ 배후에 있는 AI는 계속해서 특정 단어, 음악, 그림을 선정하고 우리의 망막과, 고막에 도달한다.
AI는 전파와 많은 반응, 참여도를(댓글, 좋아요, 공유 등) 기준으로 선정한다.

매우 원시적인 AI가 소셜 미디어 뒤에 있는 동안,
사회적 양극화를 악화하고, 정신건강을 해치며, 민주주의를 무너뜨리는 장막을 만들기에 충분했다.
수백만명의 사람들은 현실과 가상을 혼동한다.
미국은 역사상 최고의 통신기술을 보유하지만, 시민들은 대선결과에 불복하고 있다.
모두가 소셜 미디어의 유해성을 알게 되었지만,
너무 많은 사회, 경제, 정치적 기관들과 얽혀 있어 해결할 수 없다.

거대한 언어 모델은 인간과 AI의 두번째 접촉이다.
우리는 SNS의 실패를 반복할 여유가 없다.
하지만 무슨 근거로 인류가 새로운 형태의 AI를(거대한 언어 모델)
우리에게 혜택이 되도록 조정할 수 있다고 믿는가?
만약 우리가 평소처럼 AI사업을 지속한다면,
새로운 AI의 능력은 무심코 사회의 토대를 파괴하더라도 수익과 권력을 얻기 위해 재사용될 것이다.

AI는 인류를 도와 암을 퇴치하고, 만병통치약을 발견하며
기후와 에너지 위기에 대한 대책을 만들어 낼 잠재력이 확실히 있다.
그 외에도 우리가 상상하지도 못할 수많은 혜택이 있다.
하지만 사회적 기반이 무너진다면, AI의 혜택이 얼마나 주어지던 중요한 것이 아니다.

우리의 정치, 경제와 일상이 AI에 의존하기 전에 따져봐야 한다.
민주주의는 대화이고, 언어에 의존한다. 언어가 조종당하면, 대화는 차단되고 민주주의는 무너진다.
사회적 혼란이 올때까지 내버려 두면 바로잡기에 너무 늦을 것이다.

하지만 한 질문이 머리속에 맴돈다.
‘만약, 할 수 있을 만큼 빠르게 AI를 발전하지 않는다면, 중국에게 뒤쳐질 위험이 있지 않을까?’
답은 ‘아니다.’
통제할 수 없는 AI가 사회에 배포되고 얽매인다면,
책임과 분리된 신과 같은 권력을 부를 것이고 이는 서구세계가 중국에게 패배하는 이유가 될 수 있다.

우리는 전지전능한 능력과 그에 걸맞은 책임과 통제를 결합해, AI가 약속한 혜택을 실현할 수 있다.
우리는 외계 지적 생명체를 불러냈다.
그것이 극도로 강력하며 우리에게 유혹적인 선물을 주지만,
문명의 기반을 조작할 수 있다는 것 말고는 충분히 알지 못한다.
(AI가 내부에서 어떻게 작동하는지, 왜 그 결과를 제시하는지 모른다.)
우리는 세계 정상들에게 지금 주어진 도전과제를 대처하도록 요구한다.
첫번째 단계는 시간을 버는 것이다.
그 동안 우리는 19세기에 확립된 사회 기반들을 AI에 맞게 개선하고,
AI가 우리를 지배하기 전에 우리가 AI를 지배하는 법을 배워야 한다.



[You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills]

Imagine that as you are boarding an airplane,
half the engineers who built it tell you
there is a 10 percent chance the plane will crash, killing you and everyone else on it.
Would you still board?

In 2022, over 700 top academics and researchers behind the leading artificial intelligence companies
were asked in a survey about future A.I. risk.
Half of those surveyed stated that there was a 10 percent or greater chance of human extinction
(or similarly permanent and severe disempowerment) from future A.I. systems.
Technology companies building today’s large language models are caught in a race
to put all of humanity on that plane.

Drug companies cannot sell people new medicines
without first subjecting their products to rigorous safety checks.
Biotech labs cannot release new viruses into the public sphere
in order to impress shareholders with their wizardry.
Likewise, A.I. systems with the power of GPT-4 and beyond
should not be entangled with the lives of billions of people
at a pace faster than cultures can safely absorb them.
A race to dominate the market should not set the speed of
deploying humanity’s most consequential technology.
We should move at whatever speed enables us to get this right.

The specter of A.I. has haunted humanity since the mid-20th century,
yet until recently it has remained a distant prospect,
something that belongs in sci-fi more than in serious scientific and political debates.
It is difficult for our human minds to grasp the new capabilities of GPT-4 and similar tools,
and it is even harder to grasp the exponential speed at which
these tools are developing more advanced and powerful capabilities.
But most of the key skills boil down to one thing:
the ability to manipulate and generate language, whether with words, sounds or images.

In the beginning was the word.
Language is the operating system of human culture.
From language emerges myth and law, gods and money, art and science,
friendships and nations and computer code.
A.I.’s new mastery of language means
it can now hack and manipulate the operating system of civilization.
By gaining mastery of language, A.I. is seizing the master key to civilization,
from bank vaults to holy sepulchers.

What would it mean for humans to live in a world
where a large percentage of stories, melodies, images, laws,
policies and tools are shaped by nonhuman intelligence,
which knows how to exploit with superhuman efficiency
the weaknesses, biases and addictions of the human mind
— while knowing how to form intimate relationships with human beings?
In games like chess, no human can hope to beat a computer.
What happens when the same thing occurs in art, politics or religion?

A.I. could rapidly eat the whole of human culture — everything we have produced over thousands of years —
digest it and begin to gush out a flood of new cultural artifacts.
Not just school essays but also political speeches, ideological manifestos, holy books for new cults.
By 2028, the U.S. presidential race might no longer be run by humans.

Humans often don’t have direct access to reality.
We are cocooned by culture, experiencing reality through a cultural prism.
Our political views are shaped by the reports of journalists and the anecdotes of friends.
Our sexual preferences are tweaked by art and religion.
That cultural cocoon has hitherto been woven by other humans.
What will it be like to experience reality through a prism produced by nonhuman intelligence?

For thousands of years, we humans have lived inside the dreams of other humans.
We have worshiped gods, pursued ideals of beauty and
dedicated our lives to causes that originated in the imagination of some prophet, poet or politician.
Soon we will also find ourselves living inside the hallucinations of nonhuman intelligence.

The “Terminator” franchise depicted robots running in the streets and shooting people.
“The Matrix” assumed that to gain total control of human society,
A.I. would have to first gain physical control of our brains and hook them directly to a computer network.
However, simply by gaining mastery of language,
A.I. would have all it needs to contain us in a Matrix-like world of illusions,
without shooting anyone or implanting any chips in our brains.
If any shooting is necessary, A.I. could make humans pull the trigger, just by telling us the right story.

The specter of being trapped in a world of illusions has haunted humankind
much longer than the specter of A.I.
Soon we will finally come face to face with Descartes’s demon, with Plato’s cave,
with the Buddhist Maya. A curtain of illusions could descend over the whole of humanity, and we might never again be able to tear that curtain away — or even realize it is there.

Social media was the first contact between A.I. and humanity, and humanity lost.
First contact has given us the bitter taste of things to come.
In social media, primitive A.I. was used not to create content but to curate user-generated content.
The A.I. behind our news feeds is still choosing which words, sounds and images reach our retinas and eardrums, based on selecting those that will get the most virality, the most reaction and the most engagement.

While very primitive, the A.I. behind social media was sufficient to create a curtain of illusions
that increased societal polarization, undermined our mental health and unraveled democracy.
Millions of people have confused these illusions with reality.
The United States has the best information technology in history,
yet U.S. citizens can no longer agree on who won elections.
Though everyone is by now aware of the downside of social media, it hasn’t been addressed
because too many of our social, economic and political institutions have become entangled with it.

Large language models are our second contact with A.I. We cannot afford to lose again.
But on what basis should we believe humanity is capable of aligning these new forms of A.I. to our benefit?
If we continue with business as usual, the new A.I. capacities will again be used to gain profit and power,
even if it inadvertently destroys the foundations of our society.

A.I. indeed has the potential to help us defeat cancer, discover lifesaving drugs
and invent solutions for our climate and energy crises.
There are innumerable other benefits we cannot begin to imagine.
But it doesn’t matter how high the skyscraper of benefits A.I. assembles if the foundation collapses.

The time to reckon with A.I. is before our politics, our economy and our daily life become dependent on it.
Democracy is a conversation, conversation relies on language,
and when language itself is hacked, the conversation breaks down,
and democracy becomes untenable.
If we wait for the chaos to ensue, it will be too late to remedy it.

But there’s a question that may linger in our minds
: If we don’t go as fast as possible, won’t the West risk losing to China?
No. The deployment and entanglement of uncontrolled A.I.
into society, unleashing godlike powers decoupled from responsibility,
could be the very reason the West loses to China.

We can still choose which future we want with A.I.
When godlike powers are matched with commensurate responsibility and control,
we can realize the benefits that A.I. promises.

We have summoned an alien intelligence.
We don’t know much about it, except that it is extremely powerful
and offers us bedazzling gifts but could also hack the foundations of our civilization.
We call upon world leaders to respond to this moment at the level of challenge it presents.
The first step is to buy time to upgrade our 19th-century institutions
for an A.I. world and to learn to master A.I. before it masters us.

통합규정 1.3 이용안내 인용

"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.
법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
23/03/29 20:58
수정 아이콘
최근 AI관련 소식을 많이 보는데 지금 10대는 진지하게 전기 타일 용접 류의 고급 노가다나 미용을 배우는게 sky 보내는 것보다 훨씬 나을수도 있겠다 싶어요. 메디컬(약대X) 제외하곤 그냥 기술 배우는 쪽으로 빠지는게 훨씬 나은거 같아요.
minyuhee
23/03/29 21:33
수정 아이콘
스타워즈에선 의사가 없습니다. 사지가 절단된 아나킨을 살린 것도 드로이드였죠.
오후2시
23/03/29 21:52
수정 아이콘
dbq123님의 의견은 생각할 거리가 있지만,
다른 댓글이나 글들을 보면 뭐랄까
숙명론에 잡혀있는 것 같습니다.

'확정적이고, 벗어날 수 없는 파국이 다가오고 있으며
우리는 받아들여야 한다.'가
님 글들의 전제조건으로 보입니다.

물론 근거와 사실을 조합해 미래를 예상하는 건 좋지만
그 미래와 대응책이 극단적일 때는 유보할 필요가 있습니다.
왜냐하면 인간의 두뇌는 현재의 세계를 이해하지 못합니다.
변수가 많고, 알아야 하는 분야가 너무 다양해요.

그러니, 돌이킬 수 없으며
사람들에게 큰 영향을 주는 대책을 구상할 때
오랜 시간을 들여 추세를 보는게 어떠할까 합니다.
23/03/29 21:24
수정 아이콘
솔직히 무서워요. 아무것도 모르겠고 예상할 수 없어요.
AI개발자들은 미래에 유토피아가 올거라는 달콤한 약속을 하지만, 그 유토피아엔 제가 있을까요?
First love again
23/03/29 21:48
수정 아이콘
이런 얘기는 ai그림 나오기 전에 좀 해주지 그랬냐 흑흑
실제상황입니다
23/03/29 21:49
수정 아이콘
(수정됨) 제가 이 글을 읽고 가장 먼저 떠올린 건 이거였습니다
https://pgr21.co.kr/freedom/98237#4721286
해당 댓글이야 거의 유머성이긴 했지만 뭔가 좀 소름이 끼치더라구요.
아 앞으로 사회가 이렇게 되겠구나... 사람들이 이렇게 되겠구나...
그 서광을 엿본 느낌이 들었습니다.

https://pgr21.co.kr/freedom/96675#4604472
이 댓글도 문득 생각이 나네요.
"지금도 번역이나 영작은 대부분 컴퓨터의 보조를 따르고, 기존에 사용한 번역어와 다른 번역어를 먹이면 '주인님 실수하셨습니다! 아까 이렇게 옮기셨어요!'라고 저에게 외쳐주더라고요. 이걸 다룰줄 아는 '기술자'들에게만 약간의 유예가 발생하고 있지 않나 하는 무서운 생각도 듭니다"

[우리는 신을 숭배하고, 특정 이념에 목숨을 바쳤다. 이제 인류는 AI가 만든 환각 속에 살 것이다.]
물론 그 환각이 인간들끼리 만든 환각보다야 훨씬 정확하고 합리적이겠습니다만
그게 너무나도 정확하고 합리적이어서 인간 사회를 너무나도 잘 규정하고 그래서 사회를 정체시킬 수 있지 않을까..
뭐 그런 생각이 드네요.
23/03/29 22:00
수정 아이콘
크크크크

어떤 개념을 처음 들었을 때
저는 어릴 적 브리태니커 백과사전을 펼쳤고
그게 제 세상이었습니다.
그 다음에는 CD에 담긴 두산대백과사전,
그 다음에는 천리안과 하이텔,
그 다음에는 WWW였습니다.
최근에는 유튜브도 이 목록에 들어왔네요.

이제 곧 Chatgpt를 위시한 Ai가 제 세계가 될 거 같습니다.

문제는, [이게 전부가 아니야]라고 늘 스스로의 세계관의 한계를 자각하고 있어야 하는데 그게 쉽지 않죠.
실제상황입니다
23/03/29 22:04
수정 아이콘
(수정됨) ai가 그토록 정확하고 합리적이라면 그게 과연 쉬울까 하는 막연하고도 개인적인 두려움을 저는 예전부터 좀 갖고 있었습니다.
그에 관한 대표적인 문제가 바로 언어 사용 그 자체 아닐까요? gpt부터가 언어모델이라지 않습니까?
위에 링크한 게시글에서도 댓글로 썼던 거지만 다시 말해보자면요.

가령 ai가 너무나도 정확하고 학습능력이 뛰어나서 모든 언어사용의 적절성을 평가할 수 있게 된다면? 지금이야 사람들끼리 그 말이 얼마나 적절한지 키배나 벌이지 그게 기다 아니다 확정적으로 정리가 잘 안 되잖아요? 근데 나중에는 ai님 가라사대 기록상의 모든 용례를 취합해서 분석한 결과 그 표현의 적절성은 45.2%라고 답하셨습니다. 보다 적절한 표현을 쓰도록 하세요. 이렇게 말하면 뭐라 할 말이 있겠습니까? 피지알에서도 여러번 말한 거지만 저는 덜 적절한 표현을 왜 쓰면 안 되는데? 라는 주의거든요. 45%면 귀엽죠. 35%라면? 그건 너무 적절하지 않은 말 아님? 그래요! 쓰지 마세요! 다른 대용 표현으로 95%의 적절성과 사용률을 지니는 단어가 여기 있습니다. ai한테 물어볼 줄도 모르시나요? 이럴 거 아닙니까? 언어의 역동성은 그런 어떤 불확정적인 상태에서의 오용과 변환에서 나오는 거라 보는데 말이죠. 너무 개인적이라서 너무 사소한 두려움일지도 모르겠고 제 보잘것없는 기우일지도 모르겠습니다만 오히려 사회가 이런 식으로 ai의 판단과 규정에 의해서 정체되는 게 아닌가... 뭐 그런 생각을 가끔씩 해봅니다.
작은대바구니만두
23/03/29 21:53
수정 아이콘
(수정됨) 어차피 아직은 확률에 의해 대화를 생성하는 언어 모델일 뿐이라 검증이 필요없는 분야는 한정적입니다. 물론 지금 수준으로도 엄청나게 많은 수가 대체될 만 하겠습니다만, 아직 전문직 계열은 직업이 대체된다기보다는 하게 되는 일이 좀 달라지는 선에서 그칠거라 봅니다. 다만 ai가 정확한 사실판단과 검증을 하는 단계가 오는 시점이 언제일지는 궁금하네요. 하지만 이건 모델을 바꿔줘야 하는 것이라서 지금보다도 더 큰 스텝의 기술적 진보가 필요한 사안이라고 봅니다만..
한편 신직종인 프롬프터가 나왔다지만(돈도 엄청나게 많이 받는듯) 그래봐야 이건 사람-ai간 인터페이스의 한계로 인한 틈새시장이기에 그 지위가 오래가지는 않을거라 봅니다.

아래는 관련된 문제를 gpt4에게 질의한 결과입니다.

gpt4에게 질문.
답변의 사실관계의 정확도가 낮아도 괜찮은 분야와 아닌 분야로 구분해 드리겠습니다.

사실관계의 정확도가 낮아도 괜찮은 분야:
일상 대화: 취향, 취미, 일상 경험 등에 관한 이야기
창의적인 아이디어 또는 추측: 상상력을 발휘하는 이야기, 가상의 시나리오, 등
일반적인 조언: 인간 관계, 스트레스 관리, 시간 관리 등에 대한 개인적인 조언

사실관계의 정확도가 높아야 하는 분야:
과학, 역사, 지리 등의 학문적 주제
법률, 의학, 금융 등 전문 지식이 필요한 주제
기술 및 과학적 발전에 대한 내용
최신 정보나 이슈에 대한 질문
정치, 경제, 사회적 이슈 등 사실 기반의 주제

사실관계의 정확도가 낮아도 괜찮은 분야에서는 대화의 목적이 주로 의견 교환이나 상상력 발휘 등이기 때문에, 사실적 정확성이 높지 않아도 큰 문제가 없습니다. 하지만 사실관계의 정확도가 높아야 하는 분야에서는 오류가 발생할 경우 심각한 결과를 초래할 수 있으므로, 언어 모델의 답변을 사용하기 전에 반드시 검증을 거쳐야 합니다.
23/03/29 22:11
수정 아이콘
AI관련 도구들은 쓰면 쓸수록 경악입니다. 이 발전 속도, 가속도가 유지되면 몇 세대가 지나기도 전에 삶이 확 바뀌어 버릴겁니다.
AI를 통한 광범위한 초과이윤을 어떻게 분배할지, 국제적으로 어떻게 협력할지 등등등. 광범위한 논의와 리더십이 필요해요
노틀담의곱추
23/03/29 22:11
수정 아이콘
{ 현실세계의 사태 = 내기할 수 있는것 }
{ 자신만의 세계의 언어적 사태 = 다수결로 정당화 되는것 }

인터넷에서 글을 쓰고 읽는 것이 나와 다른 생각을 가진 사람을 만나는 기쁨을 누리기 위함인 분들은 기꺼이 내기를 즐기실 수 있고, 최후까지 개성넘치는 인간의 모습으로 살아갈 것입니다. 반면 인터넷에서 글을 쓰고 읽는 것이 나와 유사한 생각을 가진 사람을 만나는 만족을 누리기 위함인 분들은 가장 먼저 AI가 생성해 주는 아름다운 언어의 천국을 살아갈 것입니다.
멍멍이개
23/03/30 02:14
수정 아이콘
님이 가장 행복할 것 같습니다.
빼사스
23/03/29 22:37
수정 아이콘
듄이 떠오르네요. 인공지능을 금지하는 혁명...
HA클러스터
23/03/29 23:16
수정 아이콘
버틀레리안 지하드...
뭐 40k에서도 AI를 혐오지성이라 부르며 금지하고 있고 비슷한 주제를 다루는 창작물들이 여럿 있긴 합니다
-안군-
23/03/29 22:37
수정 아이콘
세탁기, 식기세척기, 전자레인지 등이 나옴으로 해서 가사노동의 강도가 확 줄어들었어도 그 남는 시간만큼 다른 데 더 시간을 쏟게 됐고,
기중기, 지게차 등이 나옴으로 해서 육체노동의 강도가 확 줄어들었어도 그만큼 더 많은 일을 처리하게 됐고,
자동차, 비행기, 열차, 오토바이 등이 나옴으로 해서 이동 속도가 확 빨라졌지만 더 많이 이동하면서 더 많이 일을 하게 됐죠.
결국은 더 좋은 도구가 나오면 생산성이 높아지긴 하지만, 그만큼 일을 더 많이 하게 됩니다.
그러한 기술발전을 바라보며 맑스는 인간이 노동에서 해방될거라 믿었지만, 현실은 그렇지 못했죠.

AI가 발전해도 결국은 그런 결말을 맞이할거라는 생각입니다.
antidote
23/03/29 23:55
수정 아이콘
그렇다고 서방권에서 개발을 안하면 중국에서 더 빠르게 개발해서 전세계 인민을 노예로 만드는 중화주의 확산에나 쓰겠죠.
그 확산의 최전방에 놓인 것이 바로 한국일 것이고요.
중화주의 디스토피아가 낫냐 천민자본주의 디스토피아가 낫냐의 문제인데 후자가 낫다고 봅니다.
23/03/30 02:53
수정 아이콘
오 가독성이 훨씬 높아졌네요 감사합니다
Navigator
23/03/30 03:35
수정 아이콘
지금 발전 속도라면 AI가 몇년 내로 컴퓨터로 진행하는 단순 반복 작업들은 거의다 대체할 거라고 확신합니다.
그렇다고 사람이 노동에서 해방되기 보단, 수많은 자동화된 작업들에 대한 검수를 하는 형태로 노동을 하게될 것 같습니다.

현실세계에 AI가 스스로의 작업결과물에 대해 스스로 피드백을 하게 되는 시기가 온다면(로봇 등의 형태로)
그때가 정말 위험해질텐데, 그 전에 정책을 잘 정했으면 좋겠습니다.
퀀텀리프
23/03/30 21:39
수정 아이콘
막연한 우려 이겠거니 했는데 .. 이 글을 보니 서서히 부지불식중에 장악당할수도 있겠군요.
제3제국이 독일을 장악한것 처럼..
성경에서도 나오죠.
"태초에 말씀이 있었고, 신은 말씀으로 우주를 창조했다"
이 우주도 고대AI의 언어모델로 창조되었다는 해석이 가능하네요.
앙겔루스 노부스
23/04/01 23:06
수정 아이콘
진짜로 멸망할거란 생각은 들지 않지만, 그래도 분명한 건, 나의 운명에 대한 나 스스로의 결정권, 영향력은 더 줄어들거란 생각은 들긴 합니다. 근데, 어차피 지금도 내 운명에 있어 내 결정권이나 영향력은 대부분은 다른 인간에게 있지 않은지? 다른 인간에게 있던게, 그저 인공지능에게 넘어갈 뿐이라면, 하물며 그 인공지능이 더 유능하다면 나에겐 문제가 없지 않나? 하는 생각이 듭니다. 문제가 생기는건 결정권 영향력을 갖고 있던 자들 - 권력자들일 뿐이죠. 전 진작부터 인간 권력자들에 대한 환멸과 회의를 느껴왔기 때문에, 인간 권력자의 존재를 줄여줄 무언가가 나온다면 환영입니다. 저급하고 비열한 다른 인간에게 지배받느니, 차라리 기계의 지배를 받겠습니다.
목록 삭게로! 맨위로
번호 제목 이름 날짜 조회 추천
98325 [일반] 심심해서 쓰는 무협 뻘글 13 [4] 隱患6512 23/03/31 6512 1
98323 [일반] "전두환 손자라 미움 있냐구요? 없어요, 사죄하러 와주니 좋지" [188] 고세구22962 23/03/31 22962 88
98322 [정치] 尹 국빈초청 받았는데…美, 블랙핑크 공연비용 한국에 전가? [136] 빼사스19440 23/03/31 19440 0
98321 [일반] '엉터리 천지' 학교 석면 해체에 답은 있을까요 [19] qwerasdfzxcv11941 23/03/31 11941 3
98320 [일반] ChatGPT 유료 구독을 해야 하는 이유 [70] 마스터충달15977 23/03/31 15977 15
98319 [일반] 3월 무료데이타 30기가 실 사용 결과 [26] VictoryFood11722 23/03/30 11722 2
98317 [일반] 미쓰에이 'HUSH' 커버 댄스를 촬영해 봤습니다. :) [28] 메존일각8789 23/03/30 8789 13
98316 [일반] 산들산들 불어오는 봄바람 끝에, 이 내 마음 창공을 타고 [3] 인민 프로듀서7635 23/03/30 7635 1
98315 [정치] '50억 클럽' 박영수 전 특검 압수수색, 한동훈 "(특검) 진실규명에 방해" [137] 동훈16859 23/03/30 16859 0
98314 [정치] 후쿠시마 오염수 방류에 대한 한국과 일본의 입장차이 [119] 톤업선크림18241 23/03/30 18241 0
98313 [정치] 축협 100인 사면 건을 문 하태경 [63] BitSae15808 23/03/30 15808 0
98312 [일반] 노트북/데스크탑 견적 2063일 1천명 [72] SAS Tony Parker 12135 23/03/30 12135 50
98311 [일반] 나는 왜 비인기과 의사가 되는 길을 선택했는가 [45] 바이올렛파파12269 23/03/30 12269 143
98310 [일반] 대법원이 누진제 소송에서 한국전력의 손을 들어줬습니다 [22] 검사10735 23/03/30 10735 0
98308 [정치] 주 69시간 근로시간 개편안 연구과정중 보건전문의 사퇴 [49] 아롱이다롱이11874 23/03/30 11874 0
98306 [정치] 한상혁 방통위원장 구속영장 기각되었네요. [38] 홍철11751 23/03/30 11751 0
98305 [일반] 절망 속 희망찾기...? [15] 쩜삼이7478 23/03/29 7478 6
98304 [정치] 윤정부에서도 의대증원에 나설 움직임을 보이니 의협 측에서도 공공의사제를 제안하며 양보안을 내놓았네요. [49] 홍철14834 23/03/29 14834 0
98303 [일반] 뉴욕타임스 3.29.일자 기사 번역(AI는 통제가 필요하다.) [20] 오후2시11893 23/03/29 11893 8
98301 [정치] 건물 추락 사고에도 병원 못 구해 사망한 사건 [81] 류지나15247 23/03/29 15247 0
98300 [일반] (약스포?)발더스게이트 즐겨 한 사람이 본 던전앤드래곤 [19] 트럭10079 23/03/29 10079 2
98299 [정치] 오세훈의 한강르네상스2 계획이 걱정입니다 [117] 빼사스14798 23/03/29 14798 0
98298 [정치] 이재명 기소, 반대 51.6%, 찬성 45%…국민 과반 "야당 탄압" [94] 만찐두빵12119 23/03/29 12119 0
목록 이전 다음
댓글

+ : 최근 1시간내에 달린 댓글
+ : 최근 2시간내에 달린 댓글
맨 위로