Todavía necesita iterar sobre el contenido, pero en su lugar debe volver a escribir usando operaciones masivas:
Ya sea para MongoDB 2.6 y superior:
var bulk = db.collection.initializeUnorderedBulkOp(),
count = 0;
db.collection.find({
"$where": "return !Array.isArray(this.experience)"
}).forEach(function(doc) {
bulk.find({ "_id": doc._id }).updateOne({
"$set": { "experience": [doc.experience["0"]] }
});
count++;
// Write once in 1000 entries
if ( count % 1000 == 0 ) {
bulk.execute();
bulk = db.collection.initializeUnorderedBulkOp();
}
})
// Write the remaining
if ( count % 1000 != 0 )
bulk.execute();
O en las versiones modernas de MongoDB 3.2 y posteriores, bulkWrite()
se prefiere el método:
var ops = [];
db.collection.find({
"$where": "return !Array.isArray(this.experience)"
}).forEach(function(doc) {
ops.push({
"updateOne": {
"filter": { "_id": doc._id },
"update": { "$set": { "experience": [doc.experience["0"]] } }
}
});
if ( ops.length == 1000 ) {
db.collection.bulkWrite(ops,{ "ordered": false })
ops = [];
}
})
if ( ops.length > 0 )
db.collection.bulkWrite(ops,{ "ordered": false });
Entonces, cuando se vuelve a escribir en la base de datos sobre un cursor, las operaciones de escritura masiva con un conjunto "desordenado" son el camino a seguir. Es solo una escritura/respuesta por lote de 1000 solicitudes, lo que reduce una gran cantidad de gastos generales, y "desordenado" significa que las escrituras pueden ocurrir en paralelo en lugar de en un orden en serie. Todo lo hace más rápido.