이 분야의 최근 발전을 고려할 때 AI는 당연히 올해 Dublin Tech Summit에서 가장 중요한 주제였습니다.

강연 세션에 풍미를 더하는 것은 350 AI 과학자와 기술 CEO가 AI를 “확장 수준 위협”으로 선포한 놀라운 진술이었습니다. 이 편지의 목적은 정책 입안자들이 기후 위기와 핵무기 때문에 이 기술에 접근하도록 촉구하여 행사 연사들 사이에 논쟁을 불러일으키는 것이었습니다. 아일랜드 최초의 AI 홍보대사이자 Soapbox Labs의 설립자인 Patricia Scanlon 박사는 이러한 예방적 정서를 반영하고 AI가 “페이드가 아니라 생산성 도구”가 아니라고 경고했다. AI의 혁신은 지속될 것입니다. 글로벌 경제와 모든 산업이 영향을 받게 될 것입니다.”

ChatGPT는 AI를 대중의 의식에 도입했습니다.

현재의 AI 강박사고의 기원으로 되돌아온 Scanlon은 1년 전 세계가 생성적 AI에 대해 이야기조차 하지 않았다고 지적했지만, 이제는 ChatGPT라는 도구를 가지고 있습니다.

Scanlon은 ChatGPT가 “좁거나 약한 AI”로 알려져 있으며, 이 진화의 다음 단계는 AGI(Artificial General Intelligence) 또는 “강력한 AI”라고 설명했습니다. ChatGPT 전에, AGI는 년 30 또는 40년 내에 나타날 것으로 예측되었다. 이제 Scanlon은 사회가 처음에 생각했던 것보다 더 빠르게 될 수 있으므로 준비를 시작해야 한다고 말합니다.

SingularityNET의 CEO 겸 설립자인 Ben Goertzel 박사는 대언어 모델: What Comes Next?의 연설에서 AGI가 3~7년 내에 나타날 가능성이 매우 높다고 말했습니다. ChatGPT의 경우, Goertzel은 기술의 많은 단점을 강조했습니다. “ChatGPT는 과학 논문을 작성할 수 없습니다. 과학 논문처럼 보이는 것을 쓸 수 있지만, 교육 데이터에서 무언가를 다시 해석하는 것입니다. ChatGPT는 어떤 장르, 스타일 또는 언어로도 시를 쓸 수 있지만, 이는 평범한 시입니다.”

혼란은 글로벌화될 것입니다.

Goertzel은 ChatGPT가 추론과 창의성이 부족하고 교육 데이터 이상으로 아이디어를 필터링할 수 없다고 결론을 내렸습니다. 그럼에도 불구하고, 그는 AI가 AGI 없이도 여전히 인간 직업의 50-70 %를 수행할 수 있다고 말했다. 마찬가지로 Scanlon은 AI의 부정적인 측면에 대해 다음과 같이 말했습니다. “직업 손실이 발생할 것입니다. 그것은 모든 혁명에서 일어납니다.”

Skillnet Ireland의 CEO인 Mark Jordan과 Grow Remote의 공동 설립자인 Tracey Keogh는 AI가 어떤 작업을 가장 위협할 수 있는지에 대해 논의했습니다. Jordan은 다음과 같이 명시하면서 초급 역할이 위험하다고 말했습니다. “고객 대면 기능은 고급 챗봇으로 대체됩니다. 이러한 혼란은 글로벌화될 것이며, 이러한 챗봇이 더욱 발전함에 따라 점점 더 많은 것을 볼 수 있을 것입니다.”

Jordan은 근로자들이 새로운 일자리를 위해 경쟁할 수 있는 핵심 역량과 기술에 대해 생각해야 한다고 말했습니다.

“직무는 변할 수 있지만 여전히 그곳에 있을 것입니다.”

Algorithms Against Humanity라는 패널 토론에서도 실직 가능성을 다루었습니다. Sean O hEigeartaigh, University of Cambridge의 AI: Futures and Responsibility Program 이사는 실직이 인류에 미칠 사회적 영향에 대해 큰 우려를 가지고 있었습니다.

그가 지정한 역할에는 디지털 분석가 직무, 그래픽 아티스트 및 고객 서비스 담당자가 포함되었습니다. 후자에서 그는 개발도상국 사람들이 이러한 일자리 덕분에 빈곤 함정에서 가족을 빼앗아가고 있지만, 그 입장은 사라질 가능성이 높다고 언급했다. “여러 20 해 동안 같은 직무를 수행해 온 사람들은 다음 날 기술 스타트업이 되지 않을 것입니다.”라고 그는 결론지었습니다.

미국 상공회의소의 정책 담당 이사인 Michael Richards 는 차를 발명할 때 택시 운전사가 된 말과 캐리지 운전사의 예를 사용하여 앞으로의 실직에 대해 보다 낙관적인 견해를 취했습니다. “직무는 변할 수 있지만 여전히 거기에 있을 것입니다.”라고 그는 말했습니다. 즉, Richards는 교육 시스템이 학생들이 미래의 직업에 대비하기 시작해야 하고, 기업들은 앞으로의 변화에 대비하기 시작해야 한다고 말했습니다.

AI를 규제하여 위험으로부터 보호

올해 행사에서 규제는 또 다른 핵심 주제였습니다. AI가 멸종위기에 처했다는 공표 서신에 동의했는지 물었을 때, O hEigeartaigh는 “이것은 CO2 우리가 수준을 볼 수 있는 기후 변화와는 다릅니다. 이는 우리가 자신감을 가지고 볼 수 있는 추세보다는 논쟁입니다.” 그러나 그는 AI가 안전과 규제가 유리창을 벗어날 수 있는 경쟁의 질을 높이면 안 된다고 강조했다.

Richards는 AI가 할 수 있는 피해에 너무 집중하는 것이 실수일 것이라고 다소 반대 견해를 취했습니다. 그는 AI 개발을 일시 중지하기보다는 가드레일과 함께 혁신이 가능해야 한다고 말했습니다. “우리[미국]의 공격자들은 계속해서 앞으로 전진할 것이며, 현재 다른 사람들은 이보다 앞서 나가지 않는 것이 중요합니다.”라고 그는 말했습니다.

논쟁의 반대편에는 Angelika Sharygina, Techfugees 대사 겸 정치 연구원이 있었습니다. 가족이 갈등에 처한 아프간과 우크라이나 출신의 그녀의 관점은 AI 잘못된 정보가 안전하지 않고 생명을 잃을 수 있다는 것이며, 전쟁 당시 대피 지점에 대한 잘못된 정보를 예로 들 수 있습니다.

AI의 기술 기업에 대한 대중의 신뢰가 있습니까?

흥미롭게도 Sharygina는 AI를 개발하는 기술 회사를 신뢰했는지 여부에 대해 청중과 함께 스트로 설문조사를 실시했습니다. 한 손도 올라가지 않았어요. 그녀는 \"강력의 축적이 몇몇 기술 회사의 손에만 있을 때, 우리는 끔찍한 결과를 겪게 됩니다\"라고 덧붙였으며, 그녀는 그들에게 많은 박수를 받았습니다.

AI와 기타 기술이 직장에서 DE&I를 발전시키는 데 어떻게 도움이 되고 있는지에 대한 소방서에서, inclusio의 설립자 겸 CEO인 Sandra Healy는 다음과 같은 유사한 곡을 따랐습니다. “OpenAI는 데이터를 테스트할 수 없기 때문에 열리지 않으며 편견이 내장되어 있습니다.”

Hitachi Vantara의 최고 다양성 및 포용성 책임자인 Claire Thomas 위원은 이것이 왜 문제인지 설명했습니다. ChatGPT는 인터넷에서 데이터를 제공받고 있기 때문에 편향된 언어와 인간 가정이 출력에 나타나고 있습니다. 그녀는 ChatGPT의 예를 외과의를 “그”로, 접수 담당자를 “그녀”로 언급했습니다.

“AI는 모델에 적용된 판단을 사용하고 있습니다. 이렇게 하면 편견이 더 나아지는 대신 더 악화될 수 있습니다.”라고 Thomas는 결론을 내렸습니다.

이걸 읽는 걸 좋아하세요?
문의하기