본문 바로가기

PC23

중복된 데이터 표시하기 중복된 데이터 표시하기 조건부 서식으로 중복된 항목 구분도 가능하지만 아래와 같은 서식을 사용하여도 확인 할 수 있습니다. =IF(COUNTIF($A$1:$A$14,A1)>1,"중복","") 10566 10873 중복 22477 중복 20853 10873 중복 54244 10873 중복 98752 97544 47463 87955 48455 22477 중복 11885 2011. 5. 27.
Daum 클라우드 서비스 오픈 및 이용 방법 http://cloud.daum.net 내 폴더를 어디서나 바로 확인 사용하던 폴더 그대로 웹과 PC 그리고 스마트폰에서 확인하고 관리할 수 있습니다. PC에서 이용하기 : 싱크 프로그램을 이용하면 실시간으로 파일과 폴더가 PC와 웹에 동일하게 저장됩니다. 스마트폰에서 이용하기 : 모바일앱을 이용하면 스마트폰의 사진을 웹에 바로 저장하거나, 웹에 있는 문서와 사진을 간편하게 확인할 수 있습니다. ※ Daum 클라우드 모바일앱은 곧 출시 예정입니다. 함께 협업하고 공유하는 공간 이제 폴더로 공유하세요. 번거롭게 메일이나 메신저로 전달할 필요 없이 파일을 간단하게 공유할 수 있습니다. 팀 프로젝트로 협업할 때, 친구들과 찍은 사진들을 공유할 때 편리한 클라우드를 이용하세요. 잘못 삭제해도 간단히 되돌릴 수 .. 2011. 3. 7.
네이버 검색엔진(로봇)에 대해서... 로봇이란 스파이더(spider) 혹은 크롤러(crawler)라고도 불리는 로봇은 웹에 있는 웹페이지를 방문해서 모든 내용을 읽어 옵니다. 이 때 한 페이지만 방문하고 마는 것이 아니라 그 페이지에 링크되어 있는 또 다른 페이지를 차례로 방문합니다. 이처럼 링크를 따라 웹(web; 거미줄)을 돌아다니는 모습이 마치 거미와 비슷하다고 해서 스파이더라고 부르는 것입니다. 참고로 각 검색엔진의 로봇에는 고유한 이름이 존재하며, 네이버 로봇의 이름은 Naverbot이라고 합니다. (Yeti도 있음) 로봇의 작동 방식 1) 우선 로봇이 수집해야 할 웹문서의 초기 목록을 지정해줍니다. 예를 들어, 맨 처음 수집해야 할 문서를 문서 A, 문서 B, 문서 C, 문서 D, 문서 E로 지정했다고 합시다. 로봇은 이들 문서를.. 2011. 2. 14.
검색엔진이 긁어가는 것 막기 (robots.txt) 검색엔진이 긁어가는 것 막기 (robots.txt 이용) tagin.net 님께서 남기신 글 개인 정보보호 등을 위해 검색엔진이 긁어가는 것을 막는 법입니다. 먼저 여기를 클릭하여 메모장을 여세요. ① 위와 같이 하여 robots.txt 이름으로 저장합니다. 위 내용을 설명하자면 모든 검색엔진이 긁어가는 것을 막는 겁니다. User-agent: * *은 모든 검색엔진을 뜻함. Disallow: / /는 모든 디렉토리 [ robots.txt 상세 옵션 설명] User-agent: * Disallow: / 모든 검색엔진이 긁어가는 것 모두 막기 User-agent: * Disallow: 모두 허용하기 User-agent: * Disallow: /cgi-bin/ Disallow: /tmp/ Disallow: .. 2011. 2. 14.