<html>
<head>
<style><!--
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Tahoma
}
--></style>
</head>
<body class='hmmessage'>
This sounds really promising for making 3d scans.&nbsp; Wouldn't it be cool to be able to get a 3d scan of something and then print it out in a MakerBot?<BR>
&nbsp;<BR>
I took a look at the kinecthacks.com link -- I couldn't find out&nbsp;there how it works, or&nbsp;why they call it "RGB-Demo".&nbsp; Is it using Red-Green-Blue light to somehow?&nbsp; Or, does "RGB" in this case stand for something different?<BR>
&nbsp;<BR>
Mitch.<BR>
&nbsp;<BR>
<BR>-----------------------------&nbsp;<BR>
&gt; Date: Sat, 9 Apr 2011 18:36:41 -0700<BR>&gt; From: lamont@cluepon.com<BR>&gt; To: Noisebridge-discuss@lists.noisebridge.net<BR>&gt; Subject: [Noisebridge-discuss] Kinect hacking/mapping?<BR>&gt; <BR>&gt; <BR>&gt; Last time I was in the space, I saw about 3-4 people working with a <BR>&gt; kinect, trying to get depth and RGB frames out to their linux laptop. <BR>&gt; I've recently purchased one with the idea of using it to reconstruct and <BR>&gt; measure a 3D interior, and was hoping to be able to work with people on it.<BR>&gt; <BR>&gt; In short, I have the kinect hooked up to my laptop and can pull and <BR>&gt; record an mpeg like stream of RGB-D data. But I have no idea where to <BR>&gt; go from there. I originally planned on mounting it on a roomba and <BR>&gt; combining the roomba's odometry with the sensor output to reconstruct <BR>&gt; the rooms. But then I saw this:<BR>&gt; <BR>&gt; http://www.kinecthacks.com/kinect-accurate-scene-reconstruction-rgb-demo-v0-5-0/<BR>&gt; <BR>&gt; Which is neater, as it's just a guy standing around waving the kinect by <BR>&gt; hand, and his software is joining like surfaces in order to make a 3d <BR>&gt; model. But there's more in line with what I originally intended, with <BR>&gt; code, from these guys:<BR>&gt; <BR>&gt; http://ic2020.ca/<BR>&gt; <BR>&gt; I was curious if people were still working with the kinect, and there <BR>&gt; was a good time to meet and help me play catchup. I'm going to play <BR>&gt; with the ROS framework which has a competing free set of USB drivers <BR>&gt; (the NI vs the libfreekinect) and built in visualization framework.<BR>&gt; _______________________________________________<BR>&gt; Noisebridge-discuss mailing list<BR>&gt; Noisebridge-discuss@lists.noisebridge.net<BR>&gt; https://www.noisebridge.net/mailman/listinfo/noisebridge-discuss<BR>                                               </body>
</html>