>> HLK 자연과학 >  >> 생물학

권력법은 뇌의 인식을 균형있게 유지합니다


인간의 뇌는 종종 티핑 포인트의 언어로 설명됩니다. 그것은 높은 활동과 낮은 활동, 밀도가 높고 희소 한 네트워크, 질서와 장애 사이의 신중한 선을 제공합니다. 이제, 기록적인 수의 뉴런에서 발사 패턴을 분석함으로써 연구자들은 또 다른 팁 포인트를 발견했습니다. 이번에는 신경 규범에서 들어오는 감각 정보와 뇌의 신경 표현 사이의 수학적 관계가 그 정보에 대한 신경 표현. Nature 에 출판 된 그들의 연구 결과 6 월, 뇌는 가능한 한 많은 정보를 인코딩하는 것과 소음에 유연하게 반응하는 것 사이의 균형을 맞이하여 더 작은 세부 사항을 끝없이 카탈로그하는 대신 자극의 가장 중요한 특징을 우선 순위를 정할 수 있다고 제안합니다. 이 위업을 달성하는 방식은 인공 지능 시스템이 어떻게 작동하는지에 대한 새로운 통찰력을 제공 할 수 있습니다.

밸런싱 행위는 과학자들이 처음에 찾은 것이 아닙니다. 그들의 작업은 더 간단한 질문으로 시작되었습니다. 시각 피질은 다양한 응답 패턴을 가진 다양한 자극을 나타내나요, 아니면 비슷한 패턴을 반복해서 사용합니까? 연구자들은 후자의 시나리오의 신경 활동을 저 차원으로 언급합니다. 이와 관련된 신경 규범은 매우 제한된 어휘를 가질 것이지만 감각 입력의 작은 섭동에 탄력적입니다. 자극이 단순히 좋든 나쁘 든 1 차원 코드를 상상해보십시오. 개별 뉴런에 의한 발사의 양은 입력에 따라 다를 수 있지만, 집단으로서의 뉴런은 상관 관계가 높으며, 발사 패턴은 항상 동일한 전체 배열에서 증가하거나 감소합니다. 일부 뉴런이 잘못 해졌지만 자극은 여전히 ​​올바르게 표시 될 가능성이 높습니다.

다른 극단에서는 고차원 신경 활동이 훨씬 덜 상관 관계가 있습니다. "굿-바드"와 같은 몇 개의 축을 따라가 아니라 많은 차원에서 정보를 그래프로 만들거나 분산시킬 수 있으므로 시스템은 자극에 대한 자세한 내용을 인코딩 할 수 있습니다. 트레이드 오프는 그러한 시스템에서 중복성이 적다는 것입니다. 개별 가치에서 전체 상태를 추론 할 수 없으므로 시스템이 더 쉽게 버릴 수 있습니다.

.

지난 수십 년 동안 연구에 따르면 신경 시스템은 일반적으로 저 차원 표현을 선호하는 것으로 나타났습니다. 자연 세계에는 절대적으로 엄청난 양의 정보가 포함되어 있지만 뇌는 더 간단한 신경 설명을 선호하여 그 대부분을 버리고있는 것처럼 보였습니다. 그러나 나중에 분석에 따르면이 결론은 실험 자체의 약점에 초점을 맞출 수 있음을 보여주었습니다. 실험실 동물은 단지 몇 가지 자극 또는 매우 단순한 자극 만 제시되었으며 연구자들은 한 번에 제한된 수의 뉴런에서만 기록 할 수있었습니다. University College London의 신경 과학자 인 케네스 해리스 (Kenneth Harris)는“물론 그 실험은 그 결과를 얻었습니다. "그들은 다른 일을 할 수 없었습니다."

따라서 해리스와 그의 동료들은 10,000 개의 뉴런에서 동시에 기록하기위한 새로운 기술을 만들어 문제를 다시 방문했습니다. 그들은 거의 3,000 개의 자연 장면 이미지를 보여 주면서 동물의 시각 피질의 반응을 모니터링하고 신경 활동의 차원적인 그림에 맞는 다양한 패턴을 발견했습니다.

.

그러나 연구원들은 또한 그 활동에 대한 수수께끼를 발견했습니다. 뉴런은 모든 차원에 대해 똑같이 신경 쓰지 않았습니다. 몇 차원 또는 발사 패턴은 시각적 자극에 대한 신경 반응의 대부분을 포착했습니다. 다른 치수를 추가하면 더 작고 작은 단위만으로도 예측 전력이 증가했습니다. 이 붕괴는 권력법으로 알려진 것을 따랐으며,“사람들이 찾는 거의 모든 곳에서 발견 된 특별한 수학적 관계”를 따랐다.

해리스와 그의 동료들은 그것이 무엇을 의미하는지에 대해 혼란 스러웠다. 최근의 연구는 권력법의 관련성 (및 유병률)을 의문에 맞추었지만, 해리스는“도널드 트럼프의 트윗에서 느낌표 수의 분포는 권력법을 따른다”고 말하면서 이것에 대해 특별한 것이 있었다. 그것은 일관되게 자극의 수학적 구조로 설명 할 수없는 지수 인 특정 경사를 가지고있었습니다.

Harris는“이런 종류의 데이터의 정량적 규칙 성”이라고 Harris는“생물학에서는 일어나지 않습니다. … 우리는 그것이 무엇을 의미하는지 전혀 몰랐습니다.” - 그러나 그것은 무언가를 의미하는 것 같았습니다.

설명을 찾아서, 그들은 기능의 차별화성에 대한 이전의 수학적 작업으로 바뀌었다. 그들은 출력에 대한 전력 법률 매핑 입력이 느린 느린 붕괴로 인해 입력의 작은 변화가 큰 출력 변화를 생성 할 수 있음을 발견했습니다. 연구원들은이를 매끄럽게 고장으로 언급했습니다. 기본 코드에 의해 생성 된 출력은 항상 연속적이지 않았습니다.

이 연구의 공동 리더 인 Carsen Stringer와 Marius Pachitariu에 따르면, Harris의 실험실에서 일했으며 현재 버지니아에있는 Howard Hughes Medical Institute의 Janelia Research Campus의 연구원들입니다. Stringer는“영국 해안선과 같은 프랙탈을 생각한다면 해안선을 따라 조금만 움직이면 들쭉날쭉 한 가장자리가 많기 때문에 매우 빨리 변화 할 것입니다.”

.

뇌 용어로는 매우 다른 두 가지 이미지가 매우 다른 신경 활동으로 표현 될 수 있음을 의미했습니다. "그리고 그것은 문제가 있습니다"라고 그녀는 덧붙였습니다. "한 픽셀 만 변경되거나 이미지가 약간 움직이면 표현이 완전히 바뀌는 것을 원하지 않습니다."

.

반대로, 전력법이 더 빨리 부패하면 신경 표현은 저 차원이 될 것입니다. 그들은 정보를 덜 인코딩하고 나머지를 무시하면서 몇 가지 주요 차원을 강조합니다.

종합하면, 이러한 원칙들은 표현이 여전히 매끄럽게 남아있는 동안 얻을 수있는 것만 큼 상세하고 고차원이라는 것을 암시했습니다.

해리스에 따르면, 발견을 해석하는 한 가지 방법은 붕괴가 느려지면 덜 중요한 차원에 너무 많은 강조가 발생한다는 것입니다 (신경 활동과 관련된 곡선이 더 평평 해지는 경우 신경 개체군이 모든 차원에 대해 더 똑같이 보살핌을 받았음을 나타냅니다). 자극에서 더 미세한 세부 사항의 표현은 더 큰 특징의 표현을 늪에 빠뜨릴 것입니다. 시각 피질은 항상 특정 사소한 세부 사항에 과민이 될 것이므로 일관된 인식과 결정을 공식화하기가 어렵습니다. 한편, 더 빠른 부패로 인해 필요한 것보다 더 많은 무게가 더 큰 기능에 배치 될 것이며, 관련이있을 수있는 압도적 인 작은 기능도 압도적입니다.



뇌는 바로 그것을 얻는 것 같습니다. 워싱턴 대학의 수학적 신경 과학자 인 에릭 시어-브라운 (Eric Shea-Brown)은“이것은 사이에 멋진 달콤한 장소에있다”고 말했다. "이것은 응답을 좋아하는 입력과 같은 매핑 측면에서 매끄럽고 체계적이지만 입력에 대해 가능한 한 많이 표현하는 것 외에는 균형입니다."

.

해리스와 그의 팀은 아이디어를 테스트하기 위해 또 다른 실험을 수행했습니다. 그들이 발견 한 전력법의 특별한 경사는 복잡한 이미지와 마찬가지로 들어오는 자극이 고차원이라는 것에 달려있었습니다. 그러나 들어오는 시각적 입력이 더 단순하고 차원이 낮 으면 부드러움의 고장을 피하기 위해 경사가 더 가파르는 것으로 계산했습니다.

.

그것이 저 차원 이미지를 제시 한 생쥐의 신경 활동을 분석했을 때 정확히 보았던 것입니다.

연구원들은 이제이 권력법을 가능하게하는 생물학적 메커니즘을 결정하려고합니다. 그들은 또한 다른 뇌 영역, 다른 과제 나 행동, 질병 모델에서 역할을 계속 조사하기를 희망합니다.

그들이 탐구하기 시작한 무거운 맥락 중 하나는 인공 지능입니다. 딥 러닝 시스템은 부드러움의 고장에 고유 한 문제가 있습니다. 훈련 후 이미지를 팬더로 정확하게 레이블을 지정할 수 있지만, 인간의 눈에 실제로 보이지 않는 소수의 픽셀에 대한 변화는 대신 침팬지로 이미지를 분류하게 할 수 있습니다. 해리스는“이 네트워크의 병리학 적 특징입니다. "항상 과민 한 세부 사항이 항상있을 것입니다."

컴퓨터 과학자들은 왜 이런 일이 발생하는지 결정하려고 노력했으며 해리스는 그의 팀의 발견이 몇 가지 단서를 제공 할 수 있다고 생각합니다. 딥 러닝 네트워크의 예비 분석에 따르면 일부 층의 층은 일반적으로 마우스 실험에서 관찰 된 것보다 더 느리게 부패하는 전력 법칙을 준수한다는 것이 밝혀졌습니다. Harris, Stringer 및 동료들은 뇌의 네트워크와 달리 완전히 연속적이지 않은 표현을 생성하기 때문에 이러한 네트워크가 취약 할 수 있다고 의심합니다. 해리스는 아마도 딥 러닝 네트워크에 공부하고있는 전력법의 교훈을 더 안정적으로 만들 수 있다고 말했다. 그러나 딥 러닝 네트워크에서 전력법을 연구하고있는 Macke에 따르면이 연구는 여전히 초기에 있습니다.

Shea-Brown은 여전히 ​​시작하기에 좋은 곳이라고 생각합니다. "지속적이고 부드러운 관계는 환경에서 다양한 유형의 상황을 일반화하고 비교할 수있는 능력을 만드는 데 분명히 중요해 보입니다." 과학자들은 뇌가 어떻게 전체 뉴런 네트워크를 사용하여 세계의 표현을 인코딩하는지 이해하기 시작했습니다. 이제“이 놀랍고 아름다운 결과”를 통해 그들은 그 코드에 대해 생각하기 위해“새로운 목표와 매우 유용한 기준점”을 가지고 있습니다.

.

해리스는 시각 피질 에서이 권력 법의 예기치 않은 존재는“데이터에서 나온 것”이라고 지적했다. 이제 한 번에 수천 개의 뉴런을 영상화하고 분석하기위한 그의 그룹의 기술을 사용하여 다른 연구 질문을 추구 할 수 있으므로,“권력 법을 가진이 일은 아마도 매우 기본적인 첫 번째 발견 일 것입니다.” "이 전체 접근 방식은 우리가 사물에 대한 생각 방식을 완전히 바꿀 것입니다."

편집자 주 :Kenneth Harris는 The Simons Foundation으로부터 자금을 받고이 편집자 독립 잡지에 자금을 지원합니다.



  1. MacConkey와 EMB에서 어떤 음성 박테리아가 자라지 않습니까?
  2. 트리케라톱스 나 티라노사우루스 렉스보다 누가 더 낫습니까?
  3. 성적으로 재생산하고 그들의 자손의 다양성을 설명하는 유기체의 예는 무엇입니까?
  4. 세계에는 실제로 인어가 있습니까?
  5. 올빼미는 왜 나이트 헌터라고 불리는가?
  6. 전기 영동 정의 및 설명