먼저 축하 고맙습니다. 답변을 해드리자면,
1. 입자실험도 실험이 다양하기 때문에 어떤 실험을 하느냐에 따라서 다릅니다. 거대실험에 참여하면 직접 갈일 많습니다. 저도 매년 다녀왔고 1년정도 길게 간 적도 있습니다. 가면 데이터 분석 거기 있는 사람들이랑 같이 좀 빡세게 하고, 검출기 R&D및 제작도 참여합니다.
2. 이론 공부는 입자이론하는 사람들만큼 할 필요는 없어요. 장론을 쓸일이 거의 없습니다. 단지 표준모형(the standard model, SM)은 기본적으로 이해하고, 표준모형을 넘어서는 물리를 찾는 경우에는 본인 연구와 관련된 beyond the standard model (BSM) 모델들은 잘 알아야 합니다. 그래야 내가 한 분석을 제대로 해석할수가 있거든요. (사실 이건 좀 사람마다 케바케가 심한데 이론지식이 별로 없어도 교수하는 경우도 있습니다. 실제로 유럽은 디텍터 개발만 가지고도 입자물리학 박사학위 딸수도 있어요. 우리나라는 좀 어렵지만 말이죠.)
3. 입자 이론쪽 피인용 지수 높은거는 다른 분야분들한테 설명하기에는 좀 어렵군요. 기본적으로 SM을 넘어서는 이론적 확장은 사실 양-밀즈 이론의 도그마에 갇힌 채로(현재 입자물리학의 패러다임입니다) 군(group)을 확장하는 정도기 때문에 자유도가 아주 많진 않습니다. 그래서 완전히 새로운 형태의 모델을 만드는 경우는 드물고 (이런 경우는 피인용수가 정말 미쳐버려요), 기존의 이론적 탐색을 확장하는 식으로 이뤄지는 경우가 많기 때문에 피인용수가 높은 편입니다.
4. 입자이론 공저자수 많은거는 페이퍼쓰는데 해야할 일이 많기 때문입니다. 위의 답변과 연계해서 말씀드리자면, 어떤 모델에서 확장되는 새로운 모델을 제시하면 거기서 파생되는 물리적 현상들이 현재 우리가 이해하지 못하는 물리현상들을 얼마나 잘 설명하는지 interpretation이 들어가야 합니다. 그래야 impact가 있는 페이퍼가 되겠죠. 그러려면 확장된 군의 라그랑지안을 사용해서 특정 실험에서 예측되는 이벤트 갯수나 여러 kinematic 시그니쳐 같은 것을 계산해야하고, 검출기를 통해 관측될 형태도 예측해야하죠. 결론적으로 현재 진행되고 있는 실험들이나 미래에 진행될 것으로 예정중인 실험들에서 발견될 가능성이 있는지 (혹은 어느 정도의 sensitivity 를 가지는지)가 보통 이론논문의 핵심 포인트가 됩니다. 보시면 장론계산만 잘해서 될게 아니라 현재 진행되는 실험들에 대해서도 좀 빠삭하게 알아야 하는데 실험 종류가 워낙 많으니 각 분야별로 전문가들에게 컨택해야합니다. 자연스럽게 서로 도움을 주고받게되고 공저자수가 많아집니다. 이름 넣는 기준은 사실 기준이 정해진게 없어요. 어느정도 기여도가 있으면 넣어달라 하면 왠만하면 넣어주고, 넣냐 마냐로 싸우는 경우도 있구요. 많은 사람들끼리의 협업은 주로 메신저로 합니다. 아직도 skype많이쓰고, zoom으로 미팅도 많이 하구요. 분기에 한두번씩은 오프라인으로 만나는 편입니다.
5. 분석하는 툴도 만들고 그걸로 직접 분석합니다. 주로 쓰는 언어는 python, c++, shell script정도 되겠네요. LHC에서 1초에 양성자-양성자 충돌 이벤트를 1000개정도 받습니다. 한 이벤트에 용량은 대략 1 MB 정도 되구요. 이걸 3년간 받은 데이터를 분석합니다. 필요한 것만 잘추리고 코드 잘 짜서 3년치 데이터 다 돌리는데 4-5시간정도가 되도록 해야 논문을 쓸 준비가 완료됩니다. 물론 데이터 분석하는 서버 성능도 매우 중요하죠.
6. 모델 만들거나 분석할때 중력을 제외한 모든 힘을 다 고려합니다. 참고로 말씀드리자면 LHC에서 일어나는 양성자-양성자 충돌이 질량중심 에너지 13 TeV/c^2에서 일어나기 때문에 제대로 박으면 수백 GeV 에너지 스케일의 반응이 일어납니다. 이때는 강력이 제일 쌔고 (대충 이 쎄기를 0.1이라 하면), 전자기력이랑 약력이 대충 0.01 정도로 비슷비슷합니다. 우리가 보통 약력이 약하다고 생각하는 이유는 이 힘이 (에너지 스케일)/(약력을 매개하는 보존의 질량~100 GeV) 으로 suppress되기 때문입니다. 핵반응이 일어나는 MeV 스케일에서는 상당히 약하게 되는거죠.
Statistical methods for data analysis in particle physics. 이런걸 주로 써요. 이게 좀 입자물리에서 쓰는 통계처리 방식이 좀 특이해서 다른 곳에서도 가져다 쓸수있을진 모르겠네요. 입자실험에서는 systematic uncertainty를 주는 소스들도 많고 (제가 한 분석은 20개정도 됩니다), 그것들간의 코릴레이션도 꽤나 있는 편입니다. 근데 코릴레이션을 하나하나 다 자세히 분석해준다고 해서 좀 conservative하게 한거랑 에러 크기가 많이 차이나진 않아요. 이건 보통 likelihood fitting을 해서 그런거기 한데. 아무튼 기본적으로 코릴레이션 메트릭스를 구해서 코릴레이션이 negative 인지 positive인지를 확인을 하고, 코릴레이션이 너무 작다 싶으면 아예 코릴레이션이 없다고 근사하고, 좀 있으면 그냥 maximum correlation으로 쳐서 conservative하게 처리해버립니다. 최종적으로는 푸아송이나 가우시안, 로그-노말등의 likelihood를 사용해서 (systematic uncertainty가 우리가 보는 어떤 히스토그램의 쉐입에 영향을 미치냐 노말라이제이션에 영향을 미치냐에 따라서, 그리고 데이터 갯수가 작냐 크냐에 따라서 달라지는 거에요) fitting을 해서 데이터 분석을 완료합니다. 이렇게 말로만 해서는 아마 피부에 잘 와닿지는 않을거에요.
머신러닝은 여러가지 목적으로 씁니다. 수 많은 이벤트들 중에서 우리가 관심있는 이벤트들을 골라내려면 가장쉽게는 if문으로 여러가지 조건을 연속적으로 가해주면 되는데 이때 머신러닝을 통해서 가장 효율적인 셀렉션을 해내는 optimization용도로도 씁니다. 다른 방식으로는 검출기에서 검출한게 electron인지 hadron인지, hadron 중에서도 좀더 자세하게는 이게 pion인지 kaon인지 proton인지 이런 particle identification (PID)가 중요한데 이럴때는 검출기의 각 채널별로 들어온 전기신호의 세기를 색깔로 치환해서 이미지분석하는 방식으로 머신러닝을 써서 PID의 정답률을 높이는 식으로도 씁니다. 1990년대에 top quark를 발견할때 부터 boosted decision tree같은 방식의 초보적인 머신러닝이 사용되어 온 분야인만큼 현재에는 더 광범위하게 쓰이고있어요.
교수 제외면 포닥가는거 말고 다른 진로를 물어보시는거죠? 국내취업은 물리학 세부분야보다는 학교마다 좀 갈리는 편입니다. SKP는 자연대-공대 박사학위 취득하면 삼성가기가 상당히 편하고 박사과정도 연차로 쳐줍니다. 그래서 물리전공도 세부전공과 상관없이 삼성에 가는 분들이 상당히 많아요. (보통 산학으로 학위과정중에 장학금 받고, 받은 기간의 X배동안 일해야 하는 조건으로) LG에 가시는 분도 있구요. 입자물리실험으로 보자면 빅데이터를 다루기때문에 금융쪽으로 가는 분들도 있고, 서버관리하는 쪽으로 가는 분들도 있어요. 분야에서 딥러닝을 많이 쓰기때문에 관련 경험이 있다면 컴퓨팅 쪽으로도 손을 내밀어 볼수도 있구요.