전체 글 52

[심리학]Easy as (Happiness) Pie

초록 (Abstract)이 논문은 긍정심리학에서 반복적으로 인용되어 온 Lyubomirsky, Sheldon, Schkade(2005)의 행복 결정 요인 모델, 즉 ‘행복 파이’를 다시 검토한다. 해당 모델은 사람들 사이의 행복 차이 가운데 약 50%는 유전적 요인, 10%는 삶의 환경, 40%는 의도적 활동으로 설명할 수 있다고 제시해 왔다. Brown과 Rohrer는 이 주장이 경험적 근거와 개념적 정합성 모두에서 취약하다고 본다. 먼저, 집단 수준의 분산 분해 결과를 개인이 자신의 만성적 행복 수준을 얼마나 바꿀 수 있는지의 문제로 옮겨 해석하는 과정에 논리적 비약이 있다고 지적한다. 다음으로, 유전자·환경·의도적 활동을 서로 독립적인 가산 요인처럼 다루는 구성은 실제 인간 삶의 상호작용 구조를 반..

비개발 논문 00:10:09

[심리학]Life is not Always Depressing

초록 (Abstract)이 연구는 소셜 미디어에서 나타나는 우울증과 행복의 관계를 함께 본다. 기존 계산언어학 연구가 우울증의 증상, 위험 징후, 부정 정서 표현에 주로 집중해 왔다면, 이 논문은 우울증 진단을 받은 사람도 일상 속에서 행복한 순간을 경험한다는 점에서 출발한다. 심리학 연구에서는 행복을 강하게 추구하는 태도와 우울증 진단 사이에 연결이 있다는 보고가 있었지만, 실제 텍스트 데이터에서 우울증 집단의 행복 경험이 어떤 내용으로 드러나는지는 거의 분석되지 않았다.저자들은 HappyDB와 eRisk 2018 depression 데이터를 결합해, 긍정 예시만 명시적으로 존재하는 Positive-Unlabeled learning 환경을 구성했다. HappyDB의 행복 문장 5만 개와 eRisk 문장..

비개발 논문 00:06:09

[심리학]Hedonometrics and Twitter

초록 (Abstract)이 논문은 행복을 경제 지표의 보조 수단이 아니라 사회를 직접 설명하는 독립적인 지표로 다룬다. 저자들은 자기보고식 설문 대신, 트위터에 실시간으로 올라오는 문장을 이용해 집단 수준의 정서 변화를 추적하는 텍스트 기반 행복 측정기, 이른바 hedonometer를 구성한다. 분석 대상은 약 33개월 동안 수집한 46.0760억 개 단어, 45.86억 개 트윗, 6,300만 명 이상의 고유 사용자다. 시계열 범위는 시간 단위부터 연 단위까지 이어지고, 행복뿐 아니라 어휘 다양성을 뜻하는 정보량 지표도 함께 본다.방법의 핵심은 두 단계다. 먼저 자주 쓰이는 단어 10,222개에 대해 Mechanical Turk를 이용해 1점부터 9점까지의 행복 점수를 붙인다. 그다음 특정 시점이나 특정..

비개발 논문 2026.04.16

SemaClaw: A Step Towards General-Purpose Personal AI Agents through Harness Engineering

SemaClaw: A Step Towards General-Purpose Personal AI Agents through Harness Engineering초록 (Abstract)이 논문은 2026년 초 개인용 AI 에이전트가 실제 생활 속 도구로 진입하기 시작한 시점을 하나의 변곡점으로 읽는다. 저자들은 OpenClaw의 급격한 확산을 사례로 들며, 사용자가 더 이상 단순 질문 응답만 요청하는 것이 아니라 여행 계획, 멀티스텝 리서치, 파일 작업처럼 결과 책임이 따르는 일을 에이전트에게 맡기기 시작했다고 본다. 이 변화는 두 개의 흐름이 동시에 성숙했다는 신호로 해석된다. 하나는 프롬프트 엔지니어링과 컨텍스트 엔지니어링 이후 단계인 하네스 엔지니어링의 등장이고, 다른 하나는 사람과 에이전트의 상호작용 ..

AI논문 2026.04.16

Trust Region Policy Optimization

Trust Region Policy Optimization초록 (Abstract)이 논문은 확률적 정책을 반복적으로 개선할 때, 정책이 너무 크게 바뀌지 않도록 제약을 두면 성능을 안정적으로 끌어올릴 수 있다는 점을 이론과 실험으로 함께 보여준다. 출발점은 현재 정책 주변에서 정의되는 local surrogate objective다. 저자들은 이 surrogate objective를 개선하면 실제 기대 할인 보상도 개선된다는 하한(lower bound)을 먼저 세운다. 그 다음 이 하한을 그대로 풀기에는 제약이 너무 빡빡하고 계산량이 너무 크기 때문에, 최대 KL 제약을 평균 KL 제약으로 바꾸고, 패널티 대신 hard constraint를 쓰는 방향으로 실용적인 근사를 만든다. 이렇게 얻은 방법이 Tr..

AI논문 2026.04.16

Training-Free Group Relative Policy Optimization

Training-Free Group Relative Policy Optimization 이 논문은 GRPO의 핵심인 집단 내 상대 비교를 남겨 두고, 파라미터 업데이트를 경험 지식의 축적으로 바꿔 버린다. 수학 추론과 웹 검색에서 동결된 대형 모델의 행동을 프롬프트 컨텍스트만으로 움직여, 32B 모델을 RL로 다시 학습하는 방법보다 훨씬 낮은 비용으로 더 높은 성능을 만든다.초록 (Abstract)최근의 LLM 에이전트는 일반적인 문제 해결 능력은 상당히 높지만, 실제 현장에서 자주 마주치는 특화 도메인에서는 성능이 쉽게 꺾인다. 계산기, 코드 실행기, 검색 엔진, 웹 환경 같은 외부 도구를 안정적으로 끼워 넣어야 하고, 도메인마다 요구되는 문제 정의와 프롬프트 전략도 다르기 때문이다. 이를 해결하기 위..

AI논문 2026.04.16

A Survey of On-Policy Distillation for Large Language Models

A Survey of On-Policy Distillation for Large Language Models초록 (Abstract)저자들은 기존 LLM 지식 증류의 기본 가정이 이미 한계에 도달했다고 본다. 오프폴리시 증류에서는 학생이 교사가 미리 만든 정답 시퀀스나 정적 데이터 위에서만 훈련된다. 그러나 실제 추론 시점의 학생은 자기 자신의 이전 토큰을 조건으로 다음 토큰을 생성한다. 이 차이 때문에 학습 중에는 한 번도 보지 못한 prefix가 추론 중에 등장하고, 초반의 작은 오차가 뒤쪽 전체 시퀀스로 연쇄 전파된다.온폴리시 디스틸레이션은 이 문제를 학생 주도 롤아웃으로 바꿔 푼다. 학생이 현재 정책으로 직접 trajectory를 만들고, 교사는 그 trajectory 위에서 토큰 분포, 보상, 선..

AI논문 2026.04.16

Prompt Engineering and the Effectiveness of Large Language Models in Enhancing Human Productivity

초록 (Abstract)논문은 ChatGPT, Gemini, DeepSeek 같은 대규모 언어 모델이 이미 교육, 직장 업무, 창작 활동 전반에 깊게 들어온 상황에서, 사용자 프롬프트의 구조와 명확성이 결과 품질을 얼마나 좌우하는지를 묻는다. 핵심 문제의식은 간단하다. LLM은 강력하지만, 같은 모델을 써도 입력 문장을 어떻게 짜느냐에 따라 산출물의 적합성, 정확성, 유용성이 크게 달라진다. 저자는 이 차이를 단순한 사용 요령이 아니라 생산성과 직결되는 사용자 역량으로 본다.연구는 Google Forms 기반 구조화 설문으로 243명의 응답을 수집해, AI 사용 습관, 프롬프팅 전략, 결과 만족도, 업무 효율 인식을 함께 분석한다. 결과 해석의 중심에는 세 가지 메시지가 놓여 있다. 첫째, 구체적이고 맥..

AI논문 2026.04.16

GPT Technical Report

1. 이 보고서를 어떻게 읽어야 하나논문은 GPT-4를 이미지와 텍스트를 입력받고 텍스트를 출력하는 대규모 멀티모달 모델로 소개한다. 이 한 문장 안에 보고서의 성격이 거의 다 들어 있다. GPT-4는 단순한 챗봇 업그레이드가 아니라, 입력 형식이 넓어졌고 일반적인 추론·지식·코드 생성·다국어 처리 능력이 함께 올라간 모델로 제시된다.대표 사례로는 모의 변호사시험 상위권 성적, MMLU와 HumanEval 같은 대표 벤치마크 개선, 그리고 여러 언어로 번역한 평가 세트에서도 강한 성능을 보였다는 점이 나온다. 다만 저자들은 처음부터 “여전히 완전히 신뢰할 수 있는 시스템은 아니다”라고 분명히 적는다. 다시 말해 이 문서는 성능 과시문이 아니라, 능력과 위험을 동시에 설명하는 배포 보고서다.이 관점이 중요..

AI논문 2026.04.16

코테합(C++)-해시

코딩 테스트에서 해시를 이해해야 하는 이유이름을 넣으면 전화번호가 바로 나오는 연락처를 떠올리면 해시가 훨씬 쉽게 잡힙니다.처음 칸부터 끝 칸까지 모두 뒤지는 대신, 키를 규칙에 따라 주소로 바꾼 뒤 바로 들어가는 방식이기 때문입니다.코딩 테스트에서도 이런 장면이 자주 나옵니다.문자열이 몇 번 나왔는지 세어야 할 때, 어떤 값이 이미 등장했는지 즉시 확인해야 할 때, 이름과 점수처럼 한 정보를 다른 정보와 빠르게 연결해야 할 때입니다. 이때 해시를 떠올리면 문제 풀이 방향이 아주 빨리 정리됩니다.다만 해시는 “무조건 빠른 자료구조”로 외우면 곤란합니다.핵심은 잘 흩어지게 만들고, 충돌을 잘 다루는 것입니다. 이 두 가지가 무너지면 평균 O(1)로 기대하던 탐색이 O(N)까지 느려질 수 있습니다. 그래서 ..