subset

    1

    1답변

    QLabel을 HTML 하위 집합으로 QWidget에 넣으면 QLabel이 사용자 정의 위젯에 있는지 또는 기본 창이나 레이아웃에 있는지에 따라 다른 유형의 동작이 발생합니다. 주요 문제는 html 테이블의 모든 행이 표시되지 않는다는 것입니다. 내용은 높이가 잘게 자릅니다. 사실 나는 'height'속성이 HTML 하위 집합에서 지원되지 않는다는 것을 알

    2

    1답변

    목록 목록에서 하위 목록을 제거하고 싶습니다. 예를 들어, 나는이 mybiglist <- vector('list', 5) names(mybiglist) <- paste0('item:', seq_along(mybiglist)) for(i in seq_along(mybiglist)){ a <- rbinom(8, 5, i/10) b <- s

    0

    1답변

    날짜 열 (첫 번째 열)이 포함 된 데이터 프레임 (stock)으로 작업하고 있습니다. 나는 날짜별로 부분 집합을하고 싶다. stock_date <- reactive(which(stock()[, 1] == input$date[1]) - 1) stock_sub <- reactive(stock()[-(1:stock_date(), ]) input$date[

    0

    1답변

    x에 대해 y을 서브 세트하려고하면 -1, 0 및 1이 아래 코드에 있습니다. 하지만 분명히 작동하지 않는 y[c(x == -1, x == 0, x == 1)]을 사용하여이 모든 작업을 한 번에 수행하기를 바랬습니다 (아래 참조). 이 모든 것을 한꺼번에 처리하는 더 좋은 방법은 무엇입니까? x = seq(-1, 1, l = 1e4) y = dcauchy

    -1

    1답변

    문제는 서브 어레이 카운트의 변형입니다. 주어진 수의 배열을 가정 해 봅시다. 1,2,2,3,2,1,2,2,2,2 저는 서브 어레이를 찾고 각각의 빈도를 세웁니다. 몇 가지 K 길이 서브 어레이 (예 : K = 3)부터 살펴 보겠습니다. 서브 어레이 1,2,2의 수는 C1:2입니다. 서브 어레이의 수 2,2,3은 1이다. 서브 어레이의 수 2,3,2은 1이

    0

    1답변

    나는 몇 가지 필드 (필드 1, FIELD2, FIELD3) field1 field2 field3 field4 field5 field6 field7 field8 1 text text1 segment1 31-Jan-13 2.70 0.21 1.44 1.29 2 text text1 segment1 01-May-13 0.70 2.90 0.76 0.38 56

    0

    1답변

    왜 내가 코드의 두 라인의 매우 다른 답변을 올 수 있습니다 ... nrow(aql[(aql$`Land Use`=="RESIDENTIAL" & aql$`Location Setting`=="SUBURBAN"),]) [1] 4514 ... 그리고 nrow(subset(aql, (`Location Setting`=="SUBURBAN" & `Land Use`

    0

    1답변

    하는 것이 궁금 : data[data!=1] data[data!=1&data!=2] data[data!=1&data!=2&data!=3]

    2

    2답변

    작은 문제가 발생한 Stata의 일부 데이터로 작업하고있었습니다. Stata에서 그것을 해결할 수있는 간단한 방법이 없었기 때문에 제한된 R 지식으로 해결하려고했습니다. 나는 끔찍하게 실패했다. 내가해야 할 일은 각 orgnr에 대해 (default_year - 1)이 (가) 주어진 범위 내에 있는지 관찰하는 것입니다. 다른 말로하면 : 나는 매년 (def

    0

    1답변

    나는 0.0 (관련 없음)에서 1.0 (일란성 쌍둥이)의 연속체를 따라 서로 관련된 개별 새들의 목록을 가지고 있습니다. 일부 임계 값 (예 : 0.25)에서는 다운 스트림 분석과 관련이 너무 커서 데이터 세트에서 그 중 하나를 제거하려고합니다. 그러나 때로는 개인이 하나 이상의 다른 새와 관련이 있고 데이터 세트 (~ 1700)에서 이것이 빠르게 복잡해집