본문 바로가기

로봇

모두 실패한 로봇새.. 성공... 135의 모터로 작동.. ㄷㄷㄷㄷㄷㄷ SmartBird는 135개의 초소형 Brushless 모터에 의해 작동되는데, 이들은 이 로봇 새의 비행과 이착륙이 자연스럽고 자동으로 가능하게끔 만들어주고 있다. 또 사람의 뼈들을 연결시켜주는 관절처럼 여러 개의 드라이브 관절들이 비둘기의 실제 비행 모습과 흡사하게 날 수 있도록 각도와 모션을 만들어내고 있다. 외피는 카본 섬유와 폴리에틸렌 폼으로 만들어져서 485그램밖에 나가지 않는다. 23와트의 전기 힘으로 작동되도록 시스템이 설계되어져 있고 리모트 컨트롤러를 통해서 자유자재 비행이 가능하다. 이러한 놀라운 기술을 통해 더 먼 미래에는 실제 새와 똑같이 생긴 로봇들이 개발될 수 있을 것으로 기대된다. 독일이다...ㄷㄷㄷㄷㄷ 더보기
[robots.txt]이용 검색로봇 차단 가이드!! [배가 부른 검색포털] 사실 웹은 이미 너무 많은 정보로 인해서 원하는 정보를 발견하기가 더 어려워지고 있습니다. 어딘가에 있을 듯 하지만, 도무지 찾을 수 없는 정보들.. 특히 현대사회를 "정보"가 "돈"이 되는 사회라고 하지만, 역설적으로 "돈"에 의해서 "정보"의 우선순위가 바뀌고 있는 요즘은 더욱 그렇습니다. 요즘 네이버, 다음 같은 국내 포털들에게서 검색을 이용해서 최상위의 자리를 차지하는 방법은 포털들의 키워드 광고 대행사이면서... 야후에 인수된 야후의 자회사 '오버추어'를 통해서 등록하는 방법이 유일하게 되었습니다. (아.. 구글은 자신들의 검색광고 회사가 있습니다.) 이런 가정을 해볼까요? 당신이 블로그/홈페이지를 제작해서, 내용을 올리고, 관리를 하고, 사람들을 좀 더 쉽게 접근하게 하.. 더보기
구글로봇이 좋아하는 메타테그 메타테그작성법 흔히 메타태그 작성했는데도 잘 검색이 되지 않은 이유는 분명 있습니다. 검색엔진에서 메타태그를 잘 걸리도록 설정하는 TIP입니다. 검색전용 엔진에 잘걸릴 수 있도록 헤더를 최적화 해주면 구글처럼 순수 검색엔진에 상위에 노출될 수 있습니다. 실례로 네이버 웹문서페이지에서 "대출" 키워드 검색해보시면 조이론 이라고 보일겁니다. 1페이지로 급상승한걸 확인하실수가 있으실겁니다 출처 : http://blog.daum.net/infusion/14 더보기
검색로봇에게 걸리도록 하는 방법과 검색 못하게 하는 방법 최근 야후봇에 너무 당해서(?) robot.txt를 작성하다가, 저처럼 검색노가다를 하실 테터유저분들이 많으실 것같아서 검색한 정보를 올려봅니다. 검색로봇의 접근을 막는 방법입니다. 로봇을 배제하겠다라는 내용을 적어 놓은 robots.txt 파일을 사이트의 최상위 주소(서버 루트 디렉토리 예:www.naver.com/robots.txt)에 저장하면 됩니다. robots.txt를 서브디렉토리에 놓는 경우 효력이 없다는 사실에 주의하세요. 예를 들어, www.yourhost/~mypage 밑에 robots.txt가 있어도 이는 아무런 효력을 갖지 못합니다. 로봇은 오직 루트 디렉토리의 robots.txt만을 참조할 뿐입니다. 로봇의 접근을 어디까지 허용할 것이냐에 따라 robots.txt에 들어가는 내용은 .. 더보기
웹 로봇의 이름들.. 웹 로봇 이름들.. 이올린 : Mozilla/4.0 (compatible; Eolin) 야후 : Mozilla/5.0 (compatible; Yahoo! Slurp; http://help.yahoo.com/help/us/ysearch/slurp) 올블로그 : Allblog.net RssSync4 (I Love Bluecat) MSN : msnbot/1.0 (+http://search.msn.com/msnbot.htm) Naver : Mozilla/4.0 (compatible; NaverBot/1.0; http://help.naver.com/delete_main.asp) Naver : Yeti/1.0 (NHN Corp.; http://help.naver.com/robots/) Colcol : [Colcol.. 더보기
웹 로봇에 대한 질문 및 대답 (FAQ) 웹 로봇에 대한 질문 및 대답 (FAQ)원저자: Martijn Koster 위치: http://aistar.kotel.co.kr/~hiongun/robots/faq.html 목차 웹 로봇에 대해서 웹 로봇이 뭐죠? 에이전트는 뭔데요? 검색 엔진이 뭐지? 어떤 종류의 로봇이 존재할까? 로봇, 스파이더, 웹크로울러, 벌레, 거미?? 로봇이 웹에 해롭지 않나? 로봇에 대한 정보를 더 얻고 싶으면? 색인화 로봇 로봇이 방문할 곳을 어떻게 결정하나? 색인 로봇이 무엇을 색인할지 어떻게 결정하나? 로봇에게 자기 홈페이지를 등록시키는 방법 서버 운영자를 위해서 로봇이 우리 호스트를 방문했는지 어떻게 아나? 로봇이 나에게 방문했어! 어떻게 하지? 로봇이 내 사이트전체를 너무 빠르게 접근하고 있어! 로봇을 내 서버로 부.. 더보기
[구글 랭킹 요소] SEO(검색엔진 최적화) 체크리스트 100가지 구글 랭킹 요소 - SEO(Search Engine Optimization)  체크리스트(번역: 박갑식) 원본링크 http://www.vaughns-1-pagers.com/internet/google-ranking-factors.htm검색결과에서 웹페이지의 순위를 매기기 위하여 구글이 사용하는 요소들이 100가지가 넘는다고 알려져 있다. 검색엔진 최적화의 규칙은 무엇일까?유력한 웹마스터 포럼의 SEO 웹마스터들이 이야기하는 것을 모아서 요소들을 정리하였다. 어떤 것은 확인된 것이지만 단지 그럴 것이라고 추측만 되는 것도 있다.구글 랭킹 요소 체크리스트  1. 포지티브 온페이지 SEO 요소.  2. 네가티브 온페이지 SEO 요소.  3. 포지티브 오프페이지 SEO 요소.  4. 네가티브 오프페이지 SEO.. 더보기
내 블로그 글을 검색엔진에 노출 안되게 하는 방법! 로봇막기!! 검색 엔진에서 하위페이지로부터 들어오는 것 막기 ---------------------------------------------------------- 뭐 이렇게 해도 들어오실분들은 주소쳐서 다 들어오시겠지만;;; 일단 검색 잘 되고 트래픽 먹는 페이지에 넣어두면 좋을 것 같습니다. (음악 감상실이라던가..) 필사적으로 트래픽 수호.. !! 출처: http://blog.paran.com/weddingday7/13206062 검색엔진이 긁어가는 것 막기 (robots.txt 이용) 검색엔진이 자동으로 긁어가는 것을 막는 방법이다... 단순히 아래의 두 줄을 메모장 등에서 입력하고 파일명을 "robots.txt"로 저장해서 웹서버의 최상단 디렉토리에 올려놓기만 하면 된다. robots.txt -------.. 더보기